刚刚,OpenAI发布GPT-4.1,性能暴涨、100万上下文
今天凌晨
1点,OpenAI发布了最新模型——GPT-4.1。支持100万 tokens 上下文,提升多模态处理、代码能力、指令遵循等性能,已上线Azure OpenAI。
今天凌晨
1点,OpenAI发布了最新模型——GPT-4.1。支持100万 tokens 上下文,提升多模态处理、代码能力、指令遵循等性能,已上线Azure OpenAI。
中国研究员与DeepMind合作发布《Lavender》研究,仅需少量数据和注意力对齐技术便大幅提升多模态问答模型性能。
去年美股最火科技股AppLovin公布四季度业绩超预期,广告收入增长73%,股价盘后大涨近30%。公司表示AI模型改进仍处于早期阶段,未来将实现更个性化的广告投放。
用代码表示Agent行动显著提升OpenAI Deep Research系统性能,Hugging Face团队复现时采用代码Agent框架,使验证集准确率从46%提升至55.15%,未来可扩展更多文件格式和处理建议。
Logic-RL成功复现DeepSeek R1 Zero项目,支持多语言逻辑推理,准确率高达100%,平均模型输出长度降低30%。
本文介绍了多个OpenAI Deep Research的复现项目,并重点介绍Hugging Face的open-Deep-Research项目,它在GAIA基准测试中的准确率达到了54%。强调了使用代码表达操作的优势以及未来改进的方向,如扩展文件格式数量、提出更细粒度的文件处理等。
谷歌DeepMind研究员Shane Gu提出后训练才是人工智能进化的关键观点,颠覆了传统认知。他强调微调是给AI补习特定课程,而后训练则是教会AI如何更好地思考和学习。后者被指出是一种在线学习方式,有助于持续进化和提升广泛能力。