跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

MoE技术

每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程

2025年5月30日16时 作者 量子位

K,短短2秒钟时间,一个
准万亿MoE大模型
就已经吃透如何解一道
高等数学大题
了!
而且啊,这个

分类 资讯 标签 AI模型训练变革、 MoE技术、 RL后训练加速、 华为Pangu Ultra、 预训练、 高效稳定 发表评论

苹果提出原生多模态Scaling Law!早融合+MoE,性能飙升秘密武器

2025年5月5日16时 作者 新智元

研究发现原生早融合架构在低计算预算下性能更优,并引入混合专家技术显著提升了多模态模型的性能。

分类 资讯 标签 MoE技术、 原生多模态模型、 后融合架构、 早融合架构、 稀疏训练模型、 苹果 发表评论

DeepSeek-VL2开源,VLM迈入MoE时代~

2024年12月13日22时 作者 PaperAgent

DeepSeek-VL2是先进的大型混合专家视觉-语言模型系列,显著改进了其前身DeepSeek-VL,在包括视觉问题回答、光学字符识别、文档/表格/图表理解以及视觉定位等多种任务上表现出卓越的能力。

分类 分享 标签 45亿激活参数、 DeepSeek-VL2、 MoE技术、 基于情境对话、 视觉语言模型、 视觉问题回答 发表评论

AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 工业机器人 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克 黄仁勋

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • 优必选Walker S2全球首个实现自主换电,7*24小时打工的机器人要来了
  • ASIC安全芯片量产在即,产研团队部分工作已由AI完成
  • Nvidia携H20重返中国!黄仁勋:禁令建立在错误假设上
  • 再不管AI就要失控?!美国一众AI大厂和大佬联名发文:是时候监控人工智能的“思想”了
  • 硅谷又掀起口水战:OpenAI等公司齐称xAI不负责任!

2025 年 7 月
一 二 三 四 五 六 日
 123456
78910111213
14151617181920
21222324252627
28293031  
« 6 月    

归档

  • 2025 年 7 月
  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×