大瓜来了!Llama 4 陷刷榜争议:“内部员工”发帖控诉,测评版本被指特供?
一篇来自‘一亩三分地’论坛的帖子爆料称Meta的新大模型Llama 4训练效果未达开源SOTA基准,公司采取混入测试集数据以满足目标的做法引发争议。此外,TechCrunch质疑Meta在LM Arena排行榜上提交的版本可能与公开版不同,并认为这种行为可能误导开发者。
一篇来自‘一亩三分地’论坛的帖子爆料称Meta的新大模型Llama 4训练效果未达开源SOTA基准,公司采取混入测试集数据以满足目标的做法引发争议。此外,TechCrunch质疑Meta在LM Arena排行榜上提交的版本可能与公开版不同,并认为这种行为可能误导开发者。
Meta发布Llama 4系列,强调多模态和超长上下文窗口;OpenAI确认O3和O4-mini即将上线且GPT-5将免费;DeepSeek与清华提出SPCT方法提升推理扩展性能。
Meta 最新开源模型 Llama 4 Scout 达到千万级上下文,拥有 1090 亿参数。其使用 NoPE 架构解决长度泛化问题,并通过优化训练流程和强化学习框架提升性能。
作能力的 AI 智能体,基于自研
GLM-Z1-Air
推理模型,性能媲美
DeepSeek-R1
Meta发布的Llama4系列模型包括多模态MoE架构、超长上下文支持和优化的注意力机制。通过原生多模态预训练融合方法、轻量级后训练策略等创新技术提升了模型能力。
Llama 4 发布三款模型:Scout、Maverick 和 Behemoth。参数量分别为109B、400B和2T;Maverick 在多项任务上超越GPT-4,并且推理成本仅为其十分之一。