罕见合著!谷歌、Meta、英伟达团队联手发文,揭秘语言模型 “记忆” 能力

一篇新论文揭示了语言模型的记忆能力,并提出了新的量化指标用于衡量这种能力。研究表明,Transformer模型每个参数大约可存储3.5到4比特信息,模型的“记忆”与其泛化能力有关,理解这一点有助于开发更安全、可靠的大规模AI系统。

DeepSeek更新刷榜!R1-0528改进编码性能,媲美o3 High和Claude 4

DeepSeek发布R1-0528版本模型,参数规模达到6850亿。该模型在编程、推理和交互等方面提升显著,性能接近OpenAI等旗舰模型,并且价格更为亲民。新模型表现优于上一代,在多个基准测试中表现出色。

AI赛道隐形高手?!美团王兴披露内部基础大模型表现接近GPT-4o,机器人投资遍地开花

美团在2025年第一季度实现了良好的财务表现,并透露了其在AI大模型和机器人领域的进展。公司内部约52%的新代码由AI生成,LongCat(龙猫)大语言模型在推理和非推理模式下的性能接近GPT-4。6月将推出新的大模型作为餐饮业的商业决策助手,并通过收购光年之外公司、投资智谱AI等手段提升自身技术实力。此外,美团还进行了多笔机器人相关领域的投资。

AI编码力压群雄!Anthropic上线最强模型Claude 4系列,“举报”模式引争议

美国AI公司Anthropic发布新一代编码模型Claude Opus 4和Sonnet 4,性能提升高达10%,在SWE-bench上达到业内最先进水平。模型支持多种模式并能通过扩展接口连接到数据库、API等工具,引发了开发者们的广泛好评。