清华推出开源具身智能框架:用VLM解决机器人动作异构一致性难题,性能超越14倍参数对手

清华大学智能产业研究院联合商汤研究院等机构发布首个基于通用动作空间的具身基础模型框架UniAct,解决了具身智能中的动作空间异构一致性难题。通过视觉语言模型实现跨模态泛化,在多项权威评测中超越参数量达14倍的OpenVLA对手。