复旦主导,中美等8个国家25家单位44名学者联合发布大模型安全技术综述

AIxiv专栏发布了一篇系统性技术综述论文《Safety at Scale: A Comprehensive Survey of Large Model Safety》,全面调研了大模型安全领域的390篇研究工作,涵盖6种主流大模型和10种攻击类型。该论文介绍了各类模型的攻击与防御方法,并归纳了常用的数据集和评估基准,总结了4个重要研究趋势及主要挑战,呼吁学术界与国际社会加强合作,共同应对大模型安全问题。

Claude挣钱强于o1!OpenAI开源百万美元编码基准,检验大模型钞能力

OpenAI 推出并开源 SWE-Lancer 基准测试,用于评估 AI 大模型在现实世界软件工程任务中的表现。包含 1400 多个自由软件工程任务,总价值 100 万美元。包括自家 GPT-4o、o1 和 Anthropic Claude 3.5 Sonnet 在内的前沿模型未能解决大多数任务,仅 Claude 3.5 Sonnet 拿到最高报酬 403,325 美元。

DeepSeek V3+R1满血微调工具上线!一键启动,硬件要求降10倍

Colossal-AI 发布了大模型后训练工具箱,包含低成本监督微调解决方案及强化学习工具链等。通过 Colossal-AI 的一键启动脚本,用户可以快速完成 DeepSeek V3/R1 模型的微调,并支持多种硬件配置。同时,团队还验证并实现了 GRPO 算法及奖励设计方法用于深度学习模型优化。