上交大等提出MM-Eureka:R1-Zero的「Aha Moment」同样存在于多模态推理
本文介绍了一种新的多模态大规模强化学习框架MM-Eureka,该框架能够稳定地训练包括InternVL2.5-Instruct-8B和InternVL2.5-Pretrained-38B在内的多种大型模型,并使用较少的数据实现了性能的提升。
本文介绍了一种新的多模态大规模强化学习框架MM-Eureka,该框架能够稳定地训练包括InternVL2.5-Instruct-8B和InternVL2.5-Pretrained-38B在内的多种大型模型,并使用较少的数据实现了性能的提升。
上海交通大学-美团计算与智能联合实验室的论文被CVPR录用,提出Q-Eval-100K数据集与Q-Eval-Score评估框架解决文本到视觉模型质量评估问题。该数据集包含大量高质量AIGC生成数据,并通过多种策略提高评估精度。
最新研究显示DeepSeek-R1模型存在安全隐患。上海交大与上海AI Lab联合提出X-Boundary防御方案,通过分离安全和有害表征并定向消除有害表征来实现精准高效的安全加固,避免了过度安全导致的模型性能下降的问题。
SCoT团队提出了一种新的推理范式SCoT,它能动态调整推理链长度来适应不同复杂度的问题。AtomThink框架则是一个全过程训练和评估的系统,旨在提升多模态大模型在复杂推理任务上的表现。
上交大EPIC实验室提出的新方法NCFM,利用辅助神经网络将数据集蒸馏转化为极小化极大优化问题。该方法在多个基准数据集中实现了显著性能提升,并展示了出色的可扩展性和下游任务应用能力。
一项研究提出了一种新的数据集蒸馏方法NCFM (Neural Characteristic Function Matching),大幅提升了性能并实现了资源效率的飞跃。它通过引入神经特征函数差异度量指标,解决了现有方法的局限性,仅需2.3GB显存即可在单张GPU上完成CIFAR-100无损蒸馏,并显著超越了现有的SOTA方法。
上交大EPIC实验室提出的新方法NFCM将数据集蒸馏转化为极小化极大优化问题,显著减少了显存占用和提升了训练速度,并且在多个基准数据集中取得了优异性能。
上海交通大学张林峰团队提出Toca方法,通过token粒度的缓存策略实现无需训练的图像和视频生成加速,相比现有方法具有更强适配性和优异性能。
ByteDance Research团队提出WMP(World Model-based Perception),通过模拟训练世界模型和策略,实现在多种复杂地形上的出色控制表现。