GPT-4o最自私,Claude更慷慨!DeepMind发布全新「AI道德测试」

新智元报道
编辑:LRS
研究者通过对智能体在捐赠者游戏中的表现,分析了Claude 3.5、Gemini 1.5 Flash和GPT-4o等模型的合作行为差异。结果显示,Claude 3.5表现出更有效的合作和惩罚搭便车行为的能力,而GPT-4o则更自私。未来人机协同社会中需要考虑不同LLM智能体的道德和行为差异。

反转!Claude 3.5超大杯没有训练失败,最新爆料:内部自留,用于合成数据和RL训练

最新文章揭示了Claude 3.5 Opus的训练内幕,并指出Anthropic倾向于用最好的模型进行内部训练以提升性能。尽管存在一些未发布的原因,顶尖实验室仍在加速建设和投资硬件基础设施,表明大模型的Scaling Law仍然有效。

视觉语言模型能否实现鲁棒的数学推理?UC伯克利发布测评基准DynaMath

本文介绍了一项新的动态生成的测评基准DynaMath,用于评估和研究视觉语言模型在处理多模态数学问题时的推理能力。通过分析当前最强的一些视觉语言模型(如GPT-4o)在简单数学题上的表现,发现它们存在漏洞和鲁棒性不足的问题。DynaMath提供了501个高质量、多主题的种子问题及其变体,评估了14个最先进的视觉语言模型的表现,揭示了其推理稳健性的局限性。