从零搭一套可复现、可教学、可观察的RL for VLM训练流程,我们试了试

MAYE 是一个从零实现的 RL for VLM 框架与标准化评估方案,旨在提升透明度和可复现性。它通过简化架构、提供标准评估体系及实证研究支持,帮助学者更清晰理解模型训练过程及其行为变化。

轨迹可控视频生成新范式,复旦微软破解视频生成难题,精准控制任意物体运动

MagicMotion提出了一种新的图像到视频生成框架,能够在指定的轨迹条件下精确控制物体运动。该方法构建了大规模的轨迹数据集,并引入了隐分割损失以提高对象形状感知能力。实验结果显示,MagicMotion在多种指标上优于现有方法,展示了卓越的性能。

CVPR 2025复旦&微软开源StableAnimator: 首个端到端ID一致性人类视频生成,Github Star破千

复旦大学吴祖煊副教授团队提出StableAnimator框架,通过全局内容感知面部编码器、分布感知的身份适配器及基于HJB方程的面部优化,显著提高人像动画生成质量与一致性。

大模型怎么做好角色扮演?最大的真实数据集、SoTA开源模型、最深入的评估在这里

复旦大学博士生王鑫的研究成果《CoSER: Coordinating LLM-Based Persona Simulation of Established Roles》提出了一种新的框架来改进角色扮演AI。该研究利用真实数据集和先进的评估方法,包括来自771本知名文学作品的大量角色对话,以及详细的剧情摘要和背景信息。通过给定情境表演(Given-Circumstance Acting)的方法训练模型,并在多智能体模拟和基于惩罚的LLM评判中进行评估,取得了优异的表现。

风格迁移重大突破!西湖大学等提出StyleStudio攻克「过拟合」难题 CVPR 2025

西湖大学等团队提出StyleStudio,通过跨模态AdaIN技术、教师模型稳定布局及基于风格的无分类器引导,有效解决文本驱动风格迁移中的对齐问题、布局不稳定和模糊性等问题,提升生成图像质量和稳定性。