MLSys’25 极低内存消耗:用SGD的内存成本实现AdamW的优化性能
UT Austin 和 Meta AI 推出的 APOLLO 方法首次实现了在类 SGD 内存成本下训练大模型,显著降低内存需求并提升性能。
UT Austin 和 Meta AI 推出的 APOLLO 方法首次实现了在类 SGD 内存成本下训练大模型,显著降低内存需求并提升性能。
Meta AI开源的Leffa项目通过独特的技术原理和强大的功能特点在人物图像生成领域取得突破。它支持虚拟试穿、姿势转换等功能,有效保留细节并保持高质量效果,在时尚、游戏、影视及教育等多领域应用广泛。
CMU、华盛顿大学及Meta AI的研究提出MagicPIG,通过CPU上的LSH采样技术缓解GPU内存限制,显著提高LLM解码吞吐量和下游准确率,有望降低模型部署成本。
Meta FAIR 新发布的大型概念模型(LCM)打破了传统语言模型逐词预测的局限,它将句子视为一个概念单元,在句子表征空间中进行建模。LCM的核心组件是SONAR,支持超过200种语言和多模态输入。
新一届ACL Fellow名单公布,9位杰出学者入选,包括四位华人学者,涵盖自然语言处理、信息提取、问答系统等多个领域。