ICML 2025 M+框架来了,增加LLM隐空间记忆,不再受上下文窗口限制

本文提出了一种新的长期隐空间记忆扩展框架M+,显著提升了MemoryLLM的有效记忆跨度至160k tokens以上。该研究由Yu Wang和Zexue He完成,通讯作者来自加州大学圣地亚哥分校。

告别数据「噪音」,UCSD大模型推理新方法DreamPRM充当「信号放大器」,登顶MathVista测评榜

DreamPRM 是加州大学圣地亚哥分校团队开发的一种方法,它在数学推理测评榜上排名第一。通过双层优化框架解决多模态大语言模型的数据质量不均衡问题,显著提升了其数学推理能力。