跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

偏好蒸馏

ICLR 2025 LLaVA-MoD:MoE蒸馏训练轻量化多模态大模型

下午12时 2025/03/15 作者 极市干货

本文提出了一种轻量化多模态语言模型LLaVA-MoD,通过稀疏专家混合架构和渐进式蒸馏策略,在2B规模下使其性能超过7B大模型8.8%,并在幻觉检测任务中超越教师模型。

分类 学术 标签 LLaVA-MoD、 专家架构、 偏好蒸馏、 大模型、 模仿蒸馏、 稀疏MLM 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Manus Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

近期文章

  • 近期必读!Devin VS Anthropic 的多智能体构建方法论
  • 下个周末,北京见:AGI Playground 2025
  • YC S25 拆解:给AI创业者和产品经理的终极指南
  • 首例!苹果竟被AI大模型Claude写论文驳斥:R1思考幻觉的幻觉!
  • Anthropic谈如何构建生产级多智能体系统

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
2025 年 6 月
一 二 三 四 五 六 日
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« 5 月    

归档

  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×