英伟达用1.5M模型让人形机器人动如真人!

一个只有150万参数的神经网络模型,让机器人的运动像极了人类!

在当下动辄上千亿参数的AI大模型时代,英伟达GEAR实验室的研究团队却用一个小得不能再小的模型,实现了人形机器人的精准控制。

微型模型背后的大智慧

HOVER —— 这个仅有150万参数的神经网络模型,却承担着人形机器人的「潜意识」角色。

它能协调机器人的每一个运动部件,实现行走、保持平衡,以及将手臂和腿部移动到预期位置。

听起来很简单?来看看它有多厉害!

疯狂的训练速度

在英伟达的Isaac模拟套件中,这个小模型经历了堪称「疯狂」的训练过程。

想象一下: 机器人在虚拟「道场」中进行了相当于一年的高强度训练,但实际只用了50分钟!这就是GPU加速带来的奇迹 —— 物理模拟速度提升了1万倍

更神奇的是,训练完成后,这个模型可以直接在真实世界中使用,无需任何微调。

灵活的控制模式

HOVER支持多种高级运动指令控制模式:

头部和手部姿势 —— 可以通过Apple Vision Pro等XR设备捕捉

全身姿势 —— 通过动作捕捉或RGB摄像头实现

全身关节角度 —— 借助外骨骼装置

根部速度命令 —— 使用摇杆控制

这样的设计带来了三大优势:

  • 统一接口 —— 可以使用任何方便的输入设备控制机器人

  • 简化数据收集 —— 更容易获取全身遥操作数据用于训练

  • 高级指令转换 —— 将视觉语言动作模型的指令实时转换为低级电机信号

背后的技术秘密

英伟达团队的这个「小而美」的方案,需要三个关键要素:

硬件与仿真共生:仿真不再是事后考虑,而是硬件设计过程中的重要组成部分。

人类动作数据集:利用电影和游戏角色的动作捕捉数据,让机器人的动作更自然。这些数据可以用于:

  • 模型预训练

  • 奖励函数设计

  • 运动先验约束

并行强化学习:在Isaac模拟器中进行大规模随机化训练,通过PPO算法实现。

HOVER支持任何可以在Isaac中模拟的人形机器人。正如研究团队所说:「带上你的机器人,看它活起来!」

这个小模型的成功,让我们看到:参数规模并不是唯一的制胜法宝,巧妙的设计同样能创造奇迹。

(文:AGI Hunt)

欢迎分享

发表评论