谷歌提出Titans:突破算力限制,扩展上下文 上午8时 2025/02/25 作者 AIGC开放社区 专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言等大语言模型发展和应用落地。谷歌发布新研究Titans,通过神经长期记忆模块扩展大模型上下文窗口至200万token,超越现有Transformer模型。
谷歌推出Transformer架构的继任者Titans:训练代码也会公开 下午11时 2025/01/16 作者 AI寒武纪 谷歌发布的新架构Titans引入了神经长期记忆模块,能够在测试时学习记忆,提高模型上下文长度的同时保持快速推理能力。