复旦大学
IC-Light的视频版本来了,RelightVid:强光动态环境下的视频光照编辑神器
复旦大学等机构学者发布视频版本光照编辑成果,支持时序一致性、强光源场景下的高质量光影编辑,构建全新数据集用于评估。
最强高质量SVG生成大模型OmniSVG来袭,复旦&StepFun出品!
复旦&StepFun开源的OmniSVG能够生成从图标到复杂动漫人物的各种高质量SVG,支持文本转SVG、图像转SVG和字符引用SVG等多种模式,并基于Qwen-VL模型构建,包含MMSVG-2M数据集。
从零搭一套可复现、可教学、可观察的RL for VLM训练流程,我们试了试
MAYE 是一个从零实现的 RL for VLM 框架与标准化评估方案,旨在提升透明度和可复现性。它通过简化架构、提供标准评估体系及实证研究支持,帮助学者更清晰理解模型训练过程及其行为变化。
ICLR 2025 Spotlight 参数高效微调新范式!上海交大联合上海AI Lab推出参数冗余微调算法
本文提出参数冗余微调范式NoRM,在LoRA基础上通过SVD分解和Sim-Search方法去除冗余参数,显著提升指令微调、数学推理和代码生成任务性能。
轨迹可控视频生成新范式,复旦微软破解视频生成难题,精准控制任意物体运动
MagicMotion提出了一种新的图像到视频生成框架,能够在指定的轨迹条件下精确控制物体运动。该方法构建了大规模的轨迹数据集,并引入了隐分割损失以提高对象形状感知能力。实验结果显示,MagicMotion在多种指标上优于现有方法,展示了卓越的性能。
AI for Science!100万奖金的顶级大赛来了!
第三届世界科学智能大赛启动报名,涵盖航空安全、材料设计等五大赛道,总奖金池达百万。聚焦AI for Science,吸引全球人才共同探索新课题。
CVPR 2025复旦&微软开源StableAnimator: 首个端到端ID一致性人类视频生成,Github Star破千
复旦大学吴祖煊副教授团队提出StableAnimator框架,通过全局内容感知面部编码器、分布感知的身份适配器及基于HJB方程的面部优化,显著提高人像动画生成质量与一致性。
大模型怎么做好角色扮演?最大的真实数据集、SoTA开源模型、最深入的评估在这里
复旦大学博士生王鑫的研究成果《CoSER: Coordinating LLM-Based Persona Simulation of Established Roles》提出了一种新的框架来改进角色扮演AI。该研究利用真实数据集和先进的评估方法,包括来自771本知名文学作品的大量角色对话,以及详细的剧情摘要和背景信息。通过给定情境表演(Given-Circumstance Acting)的方法训练模型,并在多智能体模拟和基于惩罚的LLM评判中进行评估,取得了优异的表现。