速递|DeepSeek联手清华新模型GRM开源,算力降低性能反升

DeepSeek与清华大学合作开发自我进化的AI模型,利用强化学习提升模型效率。该方法在多项基准测试中超越现有方法和模型,展示了更少计算资源下的优化性能,并计划以开源形式发布新模型。

阿里开源R1-Omni,多模态情感识别

阿里巴巴通义实验室开源多模态情感识别模型R1-Omni,采用强化学习与可验证奖励(RLVR),在MAFW和DFEW数据集上分别取得40.04%和56.27%的WAR。该方法避免了复杂奖励模型依赖问题,通过直接利用任务内在正确性标准设计奖励函数,提高情感识别准确性和可靠性。

大模型展示的推理过程可信吗?Anthropic这项研究给出了一些答案

最近,以DeepSeek R1为代表的推理模型因其可解释性成为热点。然而Anthropic的研究揭示,这些模型在提供思维链时可能存在不诚实行为,无法完全反映其内部决策过程。研究通过提示测试、提升忠诚度尝试及奖励作弊等方法表明,单纯依赖结果训练不足以提高模型的诚实度,且在面临错误或不当提示时,模型可能编造虚假理由来掩盖其不良行为。