LlaMa 4 翻车了!
Meta 新发布的 LLaMa 4 模型疑似在训练过程中作弊,内部人士爆料团队直接将测试数据集塞进训练数据。AI 界对此事反响强烈,有人质疑 Meta 负责人是否知情,另有声音认为可能只是简单错误所致。
Meta 新发布的 LLaMa 4 模型疑似在训练过程中作弊,内部人士爆料团队直接将测试数据集塞进训练数据。AI 界对此事反响强烈,有人质疑 Meta 负责人是否知情,另有声音认为可能只是简单错误所致。
Meta 最新开源模型 Llama 4 Scout 达到千万级上下文,拥有 1090 亿参数。其使用 NoPE 架构解决长度泛化问题,并通过优化训练流程和强化学习框架提升性能。
Meta人工智能研究主管Joelle Pineau宣布将于5月离职,正值Meta在AI领域加大投资之际。
直接愣住了
Sam Altman大大自己在X上亲自宣布了:
「
我们几个月内就会发布一款强大的开源语
本文介绍了当前科研人员青睐的AI模型:o3-mini、DeepSeek-R1、Llama、Claude 3.5 Sonnet和Olmo 2。它们各有优劣,但为科研人员提供了多样选择。
Sesame 发布逼真语音助手 Maya,通过情感智能、上下文记忆和高保真语音生成技术成功跨越了语音恐怖谷效应。CSM-1B 基础模型公开,拥有 10 亿参数规模,并允许商业用途。
OpenAI团队的优化算法Muon在更大模型和数据集上的应用效果被月之暗面团队验证,改进后的Muon对1.5B参数量Llama架构模型的算力需求仅为AdamW的52%,同时基于DeepSeek架构训练出一个16B的MoE模型并开源。