跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

混合预训练

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

上午11时 2025/05/01 作者 新智元

M上下文长度从128K扩展至惊人的400万token SOTA纪录!基于Llama3.1-Instr

分类 资讯 标签 LLMs、 上下文窗口、 持续预训练、 混合预训练、 自适应调整、 语言模型 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克 黄仁勋

近期文章

  • 首本通用人工智能评测书出版,全球知名人工智能科学家朱松纯及团队全新成果!
  • 全面解析数据库类型:从关系型到NoSQL与向量数据库
  • Manus终于开放注册使用了!白给1000积分,每天还能免费用,但还是被一顿吐槽
  • 一大早被广告刷屏的”首个设计 Agent”,居然是这家国内公司做的。
  • 10万字Claude系统提示词泄露!我用DeepSeek 将它翻译成了中文版

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
2025 年 5 月
一 二 三 四 五 六 日
 1234
567891011
12131415161718
19202122232425
262728293031  
« 4 月    

归档

  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×