少用33%数据,模型性能不变,陈丹琦团队用元数据来做降本增效

普林斯顿大学研究团队提出了一种名为MeCo的方法,通过在大规模预训练模型中加入文档链接信息来提升下游任务性能。该方法能够减少33%的数据和计算量,并在不同规模的模型上均提升了性能,在多个数据源上也表现出了显著优势。

AAAI 2025 多模态大语言模型空间智能新探索:仅需单张图片或一句话,就可以精准生成3D建模代码啦!

本文介绍了一种名为CAD-GPT的多模态大模型,它通过结合专门设计的3D建模空间定位机制来改进现有的多模态语言模型性能。该模型在单张图片和文本描述条件下生成精确的CAD模型方面表现出卓越的能力,并被AAAI 2025接收。

数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

CMU 和 Google DeepMind 的研究提出了一种名为 ICAL 的方法,通过使用低质量数据和反馈来生成有效的提示词,改善 VLM 和 LLM 从经验中提取见解的能力,从而解决高质量数据不足的问题。