跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

1M长度

Kimi新论文再次“撞车”DeepSeek,都谈到了长文注意力机制

2025年2月19日16时 作者 量子位

Kimi研究团队提出的MoBA注意力机制显著提升了处理1M和10M长文本的速度,相比传统方法快了6.5倍和16倍。MoBA通过将上下文划分为块,并采用参数无关的top-k门控机制选择最相关的块来高效处理长序列数据。

分类 资讯 标签 1M长度、 6.5倍、 MoBA、 杨植麟、 注意力机制 发表评论

Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini

2025年1月27日16时 作者 量子位

阿里云Qwen模型首次将上下文扩展至1M长度,实现了长文本任务的稳定超越GPT-4o-mini,并提升了推理速度7倍。该模型分为长上下文训练、长度外推和稀疏注意力机制三大步骤。

分类 资讯 标签 1M长度、 7倍提速、 Qwen、 上下文扩展、 提升效果、 稀疏注意力机制 发表评论

阿里Qwen2.5-1M开源,仅320G可推理14B百万token

2025年1月27日14时 作者 PaperAgent

阿里千问开源了Qwen 2.5-1M模型及其对应的推理框架,支持百万Token上下文处理,并分享了训练和推理框架的设计细节及消融实验结果。

分类 分享 标签 1M长度、 Qwen、 上下文长度、 消融实验、 稀疏注意力、 阿里云 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • 一手实测超强开源OCR文档识别,效果超闭源模型。
  • 一年实现产品开发与商业化落地!城市服务机器人提供商「库萨科技」完成数千万元Pre-A轮融资!
  • 证监会:重启人工智能等未盈利企业适用科创板第五套标准上市
  • 京东免佣发力酒旅背后:酒店与各平台长期博弈,降佣战将至?
  • 2025杭州国际人形机器人与机器人技术展览会–核心信息

2025 年 6 月
一 二 三 四 五 六 日
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« 5 月    

归档

  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×