跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

1M长度

Kimi新论文再次“撞车”DeepSeek,都谈到了长文注意力机制

2025年2月19日16时 作者 量子位

Kimi研究团队提出的MoBA注意力机制显著提升了处理1M和10M长文本的速度,相比传统方法快了6.5倍和16倍。MoBA通过将上下文划分为块,并采用参数无关的top-k门控机制选择最相关的块来高效处理长序列数据。

分类 资讯 标签 1M长度、 6.5倍、 MoBA、 杨植麟、 注意力机制 发表评论

Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini

2025年1月27日16时 作者 量子位

阿里云Qwen模型首次将上下文扩展至1M长度,实现了长文本任务的稳定超越GPT-4o-mini,并提升了推理速度7倍。该模型分为长上下文训练、长度外推和稀疏注意力机制三大步骤。

分类 资讯 标签 1M长度、 7倍提速、 Qwen、 上下文扩展、 提升效果、 稀疏注意力机制 发表评论

阿里Qwen2.5-1M开源,仅320G可推理14B百万token

2025年1月27日14时 作者 PaperAgent

阿里千问开源了Qwen 2.5-1M模型及其对应的推理框架,支持百万Token上下文处理,并分享了训练和推理框架的设计细节及消融实验结果。

分类 分享 标签 1M长度、 Qwen、 上下文长度、 消融实验、 稀疏注意力、 阿里云 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Manus Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • 与“硅谷精神之父”凯文·凯利(KK)对话,聊聊一万天后的 AI 产品
  • MiniMax-M1 重磅开源!超越DeepSeek R1,媲美Gemini 2.5 Pro和Claude 4 Opus
  • 这些关于研发提效的深度实践分享,值得每一位开发者关注 AICon
  • 揭秘千卡 GPU 集群如何高效训练多模态大模型:vivo AI 团队实战经验分享|AICon
  • 小扎疯狂挖角 OpenAI、签约跳槽就发7亿奖金,奥特曼痛批:不懂创新,老“复制”人了

2025 年 6 月
一 二 三 四 五 六 日
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« 5 月    

归档

  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×