跳至内容
每时AI

每时AI

  • 资讯
  • 国际
  • 分享
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 关于我们

样本效率

OpenAI没做到,DeepSeek搞定了!开源引爆推理革命

2025年5月24日16时 作者 新智元

名噪一时。而强化学习算法GRPO,是背后最大的功臣之一。然而,开源界对强化学习算法的探索并没有终结。

分类 资讯 标签 DAPO、 GRoPo、 PPO、 动态调整、 样本效率、 策略梯度 发表评论

万径归于「概率」,华人学者颠覆认知!英伟达大牛力荐RL微调新作

2025年5月10日16时 作者 新智元

调的价值,深度解释了AI训练「两阶段强化学习」的原因。某种意义上,他们的论文说明RL微调就是统计。

分类 资讯 标签 变体任务、 局部奖励模型、 样本效率、 策略优化、 软强化学习、 马尔可夫决策过程 发表评论

一篇Multi-Agent具身智能技术最新综述

2025年5月10日14时 作者 PaperAgent

具身AI研究涵盖了单智能体和多智能体系统,并介绍了不同方法在控制、学习和生成模型中的应用。重点讨论了MAS的控制与规划、学习以及基于生成模型的交互机制。

分类 分享 标签 具身AI、 北理工、 南京大学、 复杂性挑战、 样本效率、 西安交通大学 发表评论

强化学习被高估!清华上交:RL不能提升推理能力,新知识得靠蒸馏

2025年4月26日16时 作者 新智元

奖励强化学习(RLVR)的认知。RLVR被认为是打造自我进化大模型的关键,但实验表明,它可能只是提高

分类 资讯 标签 DeepSeek-R1、 Qwen-2.5-Math-7B-Oat-Zero、 RLVR、 强化学习、 推理能力、 样本效率 发表评论

深度强化学习的现状与挑战

2025年2月17日8时 作者 NLP工程化

深度强化学习在样本效率、奖励设计和稳定性等方面存在问题,未来可能通过更好的模型基础学习、迁移学习等方向解决。

分类 开源 标签 Alex Irpan、 个人博客文章、 奖励函数设计、 样本效率、 深度强化学习、 稳定性 发表评论

2025年 AGI AI AI技术 Anthropic ChatGPT Claude DeepSeek DeepSeek-R1 DeepSeek R1 GitHub GPT-4o LLM Manus Meta OpenAI Python Sam Altman 人工智能 人形机器人 具身智能 大型语言模型 大模型 大语言模型 字节跳动 开源 强化学习 微软 扩散模型 技术创新 智能体 木易 机器学习 深度学习 清华大学 生成式AI 用户体验 百度 腾讯 自然语言处理 英伟达 谷歌 阿里云 阿里巴巴 马斯克

分类

  • 分享
  • 国际
  • 大模型
  • 学术
  • 开源
  • 机器人
  • 资讯
  • 与“硅谷精神之父”凯文·凯利(KK)对话,聊聊一万天后的 AI 产品
  • MiniMax-M1 重磅开源!超越DeepSeek R1,媲美Gemini 2.5 Pro和Claude 4 Opus
  • 这些关于研发提效的深度实践分享,值得每一位开发者关注 AICon
  • 揭秘千卡 GPU 集群如何高效训练多模态大模型:vivo AI 团队实战经验分享|AICon
  • 小扎疯狂挖角 OpenAI、签约跳槽就发7亿奖金,奥特曼痛批:不懂创新,老“复制”人了

2025 年 6 月
一 二 三 四 五 六 日
 1
2345678
9101112131415
16171819202122
23242526272829
30  
« 5 月    

归档

  • 2025 年 6 月
  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月
  • 2024 年 12 月
  • 2024 年 11 月

AI新闻 | X平台 | APK反编译 | 京ICP备2024096144号 |
© 2025 每时AI • Built with GeneratePress
 下载我们的APP,AI秒送达!  立即下载
×