Anthropic称DeepSeek未超越前沿,仅是训练时间更晚:我们也可以用「500万美元或广告中宣传的任何金额来训练它。」

Anthropic研究员Trenton Bricken在采访中声称DeepSeek的成就只是等待时机的结果,认为其并未真正超越AI前沿。网友对此观点表示质疑,并指出这种解释可能带有失败者的自嘲意味。

统计可控数据合成!新框架突破大模型数据生成局限,麦吉尔大学团队推出LLMSynthor

麦吉尔大学团队提出LLMSynthor方法,通过让大语言模型成为结构感知的生成器来解决数据合成中的不足问题。其核心在于统计对齐和迭代优化,能够生成结构合理、语义一致的数据,并在多个场景中验证了其有效性与稳定性。

历史首次!o3找到Linux内核零日漏洞,12000行代码看100遍揪出,无需调用任何工具

OpenAI的大模型o3成功发现Linux内核SMB实现中的远程零日漏洞,无需复杂工具辅助。Heelan研究员用12000行代码训练o3后,发现了新的释放后使用漏洞,并指出修复方案可能更为完善。同时有人担心AI可能会被用于攻击系统。