一个只有150万参数的神经网络模型,让机器人的运动像极了人类!
在当下动辄上千亿参数的AI大模型时代,英伟达GEAR实验室的研究团队却用一个小得不能再小的模型,实现了人形机器人的精准控制。
微型模型背后的大智慧
HOVER —— 这个仅有150万参数的神经网络模型,却承担着人形机器人的「潜意识」角色。
它能协调机器人的每一个运动部件,实现行走、保持平衡,以及将手臂和腿部移动到预期位置。
听起来很简单?来看看它有多厉害!
疯狂的训练速度
在英伟达的Isaac模拟套件中,这个小模型经历了堪称「疯狂」的训练过程。
想象一下: 机器人在虚拟「道场」中进行了相当于一年的高强度训练,但实际只用了50分钟!这就是GPU加速带来的奇迹 —— 物理模拟速度提升了1万倍。
更神奇的是,训练完成后,这个模型可以直接在真实世界中使用,无需任何微调。
灵活的控制模式
HOVER支持多种高级运动指令控制模式:
头部和手部姿势 —— 可以通过Apple Vision Pro等XR设备捕捉
全身姿势 —— 通过动作捕捉或RGB摄像头实现
全身关节角度 —— 借助外骨骼装置
根部速度命令 —— 使用摇杆控制
这样的设计带来了三大优势:
-
统一接口 —— 可以使用任何方便的输入设备控制机器人
-
简化数据收集 —— 更容易获取全身遥操作数据用于训练
-
高级指令转换 —— 将视觉语言动作模型的指令实时转换为低级电机信号
背后的技术秘密
英伟达团队的这个「小而美」的方案,需要三个关键要素:
硬件与仿真共生:仿真不再是事后考虑,而是硬件设计过程中的重要组成部分。
人类动作数据集:利用电影和游戏角色的动作捕捉数据,让机器人的动作更自然。这些数据可以用于:
-
模型预训练
-
奖励函数设计
-
运动先验约束
并行强化学习:在Isaac模拟器中进行大规模随机化训练,通过PPO算法实现。
HOVER支持任何可以在Isaac中模拟的人形机器人。正如研究团队所说:「带上你的机器人,看它活起来!」
这个小模型的成功,让我们看到:参数规模并不是唯一的制胜法宝,巧妙的设计同样能创造奇迹。
(文:AGI Hunt)