一篇Multi-Agent具身智能技术最新综述
具身AI研究涵盖了单智能体和多智能体系统,并介绍了不同方法在控制、学习和生成模型中的应用。重点讨论了MAS的控制与规划、学习以及基于生成模型的交互机制。
具身AI研究涵盖了单智能体和多智能体系统,并介绍了不同方法在控制、学习和生成模型中的应用。重点讨论了MAS的控制与规划、学习以及基于生成模型的交互机制。
英伟达团队发布Eagle 2.5视觉语言模型,在长上下文多模态学习方面取得显著进展,其在Video-MME基准测试中实现了72.4%的高准确率。该模型通过信息优先采样、渐进式混合后训练和多样性驱动的数据配方等创新技术提升性能,并已在开源社区上线。
AAAI 2025 在美国费城举行,共有12957篇论文投稿,录取率为23.4%。南京大学团队的‘神经符号推理不一致性的高效修正’获杰出论文奖。此外还有一篇AI对社会影响特别奖得主论文入选。
AAAI 2025 共有 12957 篇有效投稿,录用 3032 篇,录取率为 23.4%。三篇杰出论文分别由南京大学、多伦多大学和波尔多大学等机构的研究者获得。AI 对社会影响特别奖颁发给斯坦福大学等机构的 DivShift 研究。
VividTalk是南京大学、阿里巴巴、字节跳动和南开大学联合开发的人工智能技术项目,通过音频驱动生成逼真的说话头像视频。该项目采用先进的3D混合先验技术和双分支运动-VAE(变分自编码器)来实现高质量的视觉效果和自然同步对话。
音频驱动的层次化视觉合成工具Hallo通过分层音频驱动视觉合成模块和端到端扩散范式实现了高质量的肖像图像动画生成。其精细的区域划分与同步建模、端到端的特点以及多种预训练模型支持,使其在多媒体内容创作、虚拟人物互动和智能客服等领域具有广泛应用前景。
南京大学AI团队发布的VITA-1.5开源项目是一款接近实时的多模态大型语言模型,支持中英文,显著降低交互延迟,并在语音处理和图像理解方面取得提升。