Sam Altman:即将推出远超预期的开源模型,ChatGPT记忆功能正在实现《Her》的愿景

Sam Altman 在旧金山与YC CEO对话中分享了关于OpenAI的未来、AGI愿景以及下一代技术浪潮的观点。他透露即将发布一个远超预期的开源模型,并且明确指出了GPT-5及多模态超级模型的发展方向,强调不要复制ChatGPT而是创造真正缺失的东西。

月之暗面又开源了!登顶全球第一,还超了新版DeepSeek-R1

Kimi-Dev-72B是首个在SWE-bench Verified编程基准测试中取得全球最高开源模型成绩的代码大模型,参数量仅为72B。通过大规模强化学习优化,Kimi-Dev-72B不仅能在错误修复和单元测试方面表现出色,还支持自我博弈机制以同时担任BugFixer和TestWriter的角色。

炸裂!MiniMax推出全球最长上下文推理模型M1:512张H800三周完成训练,成本仅54万美金

MiniMax举办开源周活动,正式发布最新推理模型MiniMax-M1,支持100万token输入与8万token输出,参数量达4560亿。通过大规模强化学习训练,仅耗资53.47万美元。该模型采用混合注意力架构和闪电注意力机制,显著提升推理效率,并在复杂任务中表现突出。

多模态推理新基准!最强Gemini 2.5 Pro仅得60分,复旦港中文上海AILab等出品

复旦大学及香港中文大学MMLab联合上海人工智能实验室等多家单位提出了MME-Reasoning,全面评估多模态大模型的推理能力。该基准分为三类推理:演绎、归纳和溯因,并涵盖三种问题类型。评测结果显示当前最优模型得分仅60%左右,显示了对逻辑推理能力的要求极高。