312条轨迹激发241%性能!上交大与SII开源电脑智能体,超越 Claude 3.7

上海交通大学和SII的研究表明,仅需312条人类标注轨迹,并通过合成更多动作决策的思维链补全与轨迹增强技术,就能显著提升电脑智能体(Operator)性能。这一方法使得模型性能提升了241%,超越了基础模型Claude 3.7 Sonnet extended thinking模式,成为Windows系统上开源电脑智能体的新一代SOTA。

Qwen突破:用「并行计算」代替「堆参数」,新方法内存降22倍、延迟降6倍

MLNLP社区发布论文《Parallel Scaling Law for Language Models》提出ParScale技术,让模型在保持参数不变的情况下通过并行计算提升性能,推理效率提升22倍,实现高效省资源扩展。