
“
融资将用于下一代统一具身智能通用大模型的训练与场景落地。
作者|机器人开放社区
机器人开放社区获悉,近日,具身智能公司“自变量机器人(X SquareRobot)”宣布完成数亿元Pre-A++轮融资,本轮融资由光速光合和君联资本领投,北京机器人产业基金、神骐资本跟投。融资将用于下一代统一具身智能通用大模型的训练与场景落地。
自变量机器人成立于2023年12月,致力于通过研发具身智能通用大模型,实现通用机器人。通用机器人的终极目标是像人一样通过交互、感知和行动自主执行任务,并具备高效的泛化和迁移能力。而实现这一目标的核心,就在于机器人通用具身智能大模型。2024年11月完成亿元级Pre-A与Pre-A+轮融资。
团队方面,自变量机器人的核心团队成员位于深圳,软件算法团队具有Robotics Learning(机器人学习)和大模型的双重背景。硬件方面,公司汇集了一批来自头部硬件公司的核心技术骨干及高管,拥有成熟的工程能力和量产经验。
创始人兼CEO王潜本硕毕业于清华大学,是全球最早在神经网络中提出注意力机制的研究人员之一,博士期间曾在美国顶级机器人实验室参与了多项Robotics Learning的研究,研究经历涵盖机器人操作和家庭服务机器人相关的几乎所有领域。联合创始人兼CTO王昊是北大计算物理博士,曾在粤港澳大湾区数字经济研究院(IDEA研究院)担任封神榜大模型团队算法负责人,领导了国内第一个百亿级大模型和最早一批千亿级大模型之一Ziya的研发。
据了解,自变量从成立之初就选择了“大小脑统一的端到端大模型”路线。公司创始人兼CEO王潜表示,真正的具身智能大模型,应当由一个模型覆盖从感知信号输入到动作输出的完整过程,而不进行人为地分层或模块划分。这才是实现通用具身智能的真正解法。
而在国内,选择端到端模型的厂商中,技术路线也有所分化:部分厂商选择优先训练特定任务或单一场景的小模型;自变量则从一开始采用多任务、大量场景训练,以提升模型的通用性和适应能力。
王潜表示,目前业内对于明显超过单一操作的复杂任务,所有较好的实现结果几乎都是由具身智能大模型完成的。小模型为每个任务设计特定的模型结构,往往只能执行最基本的单一操作,无法实现泛化。与之相反,大模型则重视如何通过工程化方式实现模型的scaling-up,直至达到完全通用。二者技术栈完全不同,依赖小模型的积累并不能有效迁移实现大模型。
通用性和泛化性是定义这一代具身智能技术最核心的要素。只有达到足够的通用性、泛化性和可迁移性,才使得具身智能真正区别于传统自动化,能实现在自由环境中,不受预设环境和预设物体限制的自由操作。
去年11月,自变量机器人宣布实现了全球目前最大参数规模的具身智能通用操作大模型——Great Wall系列(GW)的WALL-A模型。该模型在通用性、泛化性上可以做到用极少的样本,完成各种物理环境变量、动作模式的泛化和迁移,同时在长序列复杂操作上具有绝对优势。
王潜表示,经过最近数月的迭代,WALL-A模型的能力已经与Skild AI、Physical Intelligence处于同一水平线上,部分能力甚至强于国外竞争对手。从任务复杂度层面来看,能够完成例如拉拉链、整理衣物等精细操作,展现出在随机环境中对复杂拓扑结构、复杂物理交互的强大适应性。从复杂任务的准确率来看,在叠衣服、晾衣服等复杂柔性操作中表现出色,数分钟级别的任务成功率达到90%以上。
此外,自变量机器人的通用具身智能大模型,还能够实现无需地图和深度输入的语义导航,并能基于视频进行即时决策和实时指令跟随,也具备自主环境探索能力。
(文:机器人开放社区)