AI复现顶尖AI论文?OpenAI最新测评:Claude 3.5得分第一

PaperBench测试了多款AI模型复现ICML 2024顶会论文的能力。结果显示,Claude 3.5 Sonnet表现最好,平均得分为21.0%。研究发现当前AI在长期规划、持续调试和策略执行方面存在问题。PaperBench为评估AI科研能力提供了量化标准,有助于加速科学发现并推动开放协作。

OpenAI发布AI研究新基准PaperBench,已能复制21%顶会论文!斯坦福研究发现LLM已比人类专家更具科研新颖性

OpenAI发布的PaperBench测评基准测试了AI复现顶级学术论文的能力,Claude 3.5 Sonnet在20篇ICML论文测试中的平均得分为21%,超过了一半的顶会论文。该基准不仅严苛要求,还开源代码鼓励研究者参与。此外,斯坦福大学的研究表明LLM能提出有创意的新想法,但其可行性有待提升。OpenAI研究员Jason Wei认为AI科学创新将有两种风格:专注特定问题或训练通用型AI系统。未来AI在科研领域的潜力巨大,包括辅助和引领重大突破。

Claude挣钱强于o1!OpenAI开源百万美元编码基准,检验大模型钞能力

OpenAI 推出并开源 SWE-Lancer 基准测试,用于评估 AI 大模型在现实世界软件工程任务中的表现。包含 1400 多个自由软件工程任务,总价值 100 万美元。包括自家 GPT-4o、o1 和 Anthropic Claude 3.5 Sonnet 在内的前沿模型未能解决大多数任务,仅 Claude 3.5 Sonnet 拿到最高报酬 403,325 美元。

OpenAI推出真实世界百万报酬AI编程能力测试基准:实测Claude 3.5 最强!

OpenAI联合一众大佬发布SWE-Lancer,一个评估前沿LLM在真实软件工程任务中的基准测试。它从Upwork精选了超过1400个真实的软件工程任务,总价值高达100万美元。SWE-Lancer包含个人贡献者和技术领导者的两种类型的任务,采用端到端测试模拟真实环境。研究结果显示模型表现仍有提升空间,OpenAI开源了数据集以促进更多研究。