CMU
数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆
CMU 和 Google DeepMind 的研究提出了一种名为 ICAL 的方法,通过使用低质量数据和反馈来生成有效的提示词,改善 VLM 和 LLM 从经验中提取见解的能力,从而解决高质量数据不足的问题。
把注意力计算丢给CPU,大模型解码吞吐量提高1.76~4.99倍
CMU、华盛顿大学及Meta AI的研究提出MagicPIG,通过CPU上的LSH采样技术缓解GPU内存限制,显著提高LLM解码吞吐量和下游准确率,有望降低模型部署成本。