IC-Light的视频版本来了,RelightVid:强光动态环境下的视频光照编辑神器
复旦大学等机构学者发布视频版本光照编辑成果,支持时序一致性、强光源场景下的高质量光影编辑,构建全新数据集用于评估。
复旦大学等机构学者发布视频版本光照编辑成果,支持时序一致性、强光源场景下的高质量光影编辑,构建全新数据集用于评估。
复旦&StepFun开源的OmniSVG能够生成从图标到复杂动漫人物的各种高质量SVG,支持文本转SVG、图像转SVG和字符引用SVG等多种模式,并基于Qwen-VL模型构建,包含MMSVG-2M数据集。
MAYE 是一个从零实现的 RL for VLM 框架与标准化评估方案,旨在提升透明度和可复现性。它通过简化架构、提供标准评估体系及实证研究支持,帮助学者更清晰理解模型训练过程及其行为变化。
本文提出参数冗余微调范式NoRM,在LoRA基础上通过SVD分解和Sim-Search方法去除冗余参数,显著提升指令微调、数学推理和代码生成任务性能。
MagicMotion提出了一种新的图像到视频生成框架,能够在指定的轨迹条件下精确控制物体运动。该方法构建了大规模的轨迹数据集,并引入了隐分割损失以提高对象形状感知能力。实验结果显示,MagicMotion在多种指标上优于现有方法,展示了卓越的性能。
第三届世界科学智能大赛启动报名,涵盖航空安全、材料设计等五大赛道,总奖金池达百万。聚焦AI for Science,吸引全球人才共同探索新课题。
复旦大学吴祖煊副教授团队提出StableAnimator框架,通过全局内容感知面部编码器、分布感知的身份适配器及基于HJB方程的面部优化,显著提高人像动画生成质量与一致性。
复旦大学博士生王鑫的研究成果《CoSER: Coordinating LLM-Based Persona Simulation of Established Roles》提出了一种新的框架来改进角色扮演AI。该研究利用真实数据集和先进的评估方法,包括来自771本知名文学作品的大量角色对话,以及详细的剧情摘要和背景信息。通过给定情境表演(Given-Circumstance Acting)的方法训练模型,并在多智能体模拟和基于惩罚的LLM评判中进行评估,取得了优异的表现。
西湖大学等团队提出StyleStudio,通过跨模态AdaIN技术、教师模型稳定布局及基于风格的无分类器引导,有效解决文本驱动风格迁移中的对齐问题、布局不稳定和模糊性等问题,提升生成图像质量和稳定性。