阿里通义发布并行计算新策略:1.6B等效4.4B,内存消耗骤降95%

阿里通义团队提出的新范式PARSCALE通过扩展CFG的双路径到P条并行路径,显著提升了1.6B模型的性能,仅占用后者的1/22内存,并将延迟增加量减少至1/6。该方法无需从头训练现有模型(如Qwen-2.5),并在GSM8K数学推理任务中实现了34%的性能提升。

大模型玩不好数独?!Transformer作者初创公司公布排行榜:o3 Mini High“变异数独”正确率仅2.9%

大模型在全新数独基准Sudoku-Bench上的表现不尽如人意,总体正确率低于15%,即使是高性能模型也仅能取得2.9%的正确率。研究团队认为这反映了现有基准测试的问题:大模型容易依赖记忆而非逻辑推理。Sakana AI推出的新基准挑战了这一点,包含复杂且需要多步骤推理的变异数独谜题,展示了AI在创造性和多层次推理上的局限性。

5小时满帧玩王者原神!只需2499元拥有电竞级体验,一加手机开大:三块芯片

一加Ace5至尊系列发布,配备「电竞三芯」(天玑9400+、灵犀触控芯和电竞Wi-Fi芯片),最高安兔兔跑分3225260,在《王者荣耀》等游戏中的表现优异。此外还提供高刷护眼屏、冰河散热系统等多项改进,旨在提升游戏体验。

开源AI开发生态大洗牌:低代码平台逆袭,传统LLM框架日渐式微

蚂蚁发布的大模型开源生态全景图涵盖19个技术领域、135个项目,揭示了大模型开发生态的演进规律和当前趋势。报告指出模型训练框架、高效推理引擎和低代码应用开发框架是主导赛道,并分析了智能体开发方式的变化及标准化协议的重要性。

刚刚2岁的Llama,「爸妈」都跑了!小扎手拆Meta AI,LeCun保持独立

Meta决定重组AI团队以应对人才流失、竞争对手压力和技术停滞等问题,旧研发体系被拆分为AI产品团队、AGI基础团队和AI研究部门,Yann LeCun领导的FAIR团队仍保持独立。Llama系列面临翻车及跳票问题,外部人才持续流出影响Meta的研发节奏。