Nvidia携H20重返中国!黄仁勋:禁令建立在错误假设上

716日消息,第三届中国国际供应链促进博览会(简称链博会)今日在北京举行,Nvidia首次亮相链博会。


在前不久,Nvidia称美国批准其开始向中国市场销售H20芯片,并推出专为中国定制的RTX Pro GPUAMD也宣布将重启对华出口AI芯片,代表着贸易战格局的变化。



H20芯片的回归


H20是为遵守美国出口限制而推出,专为中国市场设计的AI加速器H20基于Nvidia Hopper架构,拥有CoWoS先进封装技术H20更适用于垂类模型训练、推理,无法满足万亿级大模型训练需求,整体性能略高于910B


本次Nvidia展台,没有单独展出H20芯片,也没有单独展出任何一款GPU产品(图形处理器),而是试图以软硬件解决方案的形式展出例如在展台上,就有银河通用Galbot(G1)、北京人形机器人创新中心天工2.0、加速进化T1、智平方四款人形机器人亮相,还有一只机器狗,据称也装有Nvidia的“计算单元”,相当于它的大脑和神经,可以感知外界环境并做出各种动作。


据智平方相关负责人介绍,公司自主研发的具身大模型Alpha Brain用了NvidiaGPU来做模型训练和算法开发。同时,智平方利用了NvidiaIsaac Sim仿真平台,在虚拟环境中大规模、低成本地复现真实场景,加速了模型测试、验证与样本生成。



H20芯片对于Nvidia而言意味着抢占AI制高点的关键产品。今年5月,黄仁勋曾公开指出,由于美国政府禁止NvidiaH20芯片对华出口,公司不仅因库存注销而损失了55亿美元,还被迫放弃了中国市场150亿美元的销售收入。他还在一场采访中表示,中国AI市场规模可能在未来两到三年达到500亿美元,美国企业若无法参与将遭受巨大损失


黄仁勋此前指出,目前美国的芯片出口管制政策是建立在中国无法自研AI芯片的假设之上,这个假设一直是有问题的,现在看来显然是错误的无论有没有美国芯片,中国的AI行业都将继续前进。他表示:中国是全球最大的AI市场之一,也是(美国企业)在全球取得成功的跳板。全球一半的AI研究人员都在中国,赢得中国市场的平台将引领全球。


本次黄仁勋还参加了链博会的演讲,在演讲中他提到中国的供应链是奇迹。现代高科技诸如GPUAI服务器是成千上万个零部件组成的,是由全球范围内供应链厂商共同合作完成的Nvidia将继续与长期合作伙伴以及众多新朋友携手,在AI时代共创繁荣未来。


尽管机器人业务仅占Nvidia总收入的一小部分黄仁勋预测,十年内,工厂将由软件和人工智能驱动,AI将指挥机器人团队与人协作,智能产品的制造也将由AI驱动。这将为中国的供应链生态创造新的机遇。黄仁勋解释中国成百上千的项目正在使用Nvidia的数字孪生AI平台Omniverse,包括智能工厂和仓库,自动驾驶汽车也正在使用这一仿真平台。他说道,人工智能的下一个浪潮将是机器人系统,帮助机器理解物理世界、推理并执行任务。



车载芯片替代方案能否成主流?


目前,人形机器人与具身智能的发展正在推动芯片技术的创新,从而催生出更强大、更高效、更智能的机器人随着机器人日益融入我们的生活,对专用芯片的需求将持续增长,从而进一步加速该领域的发展。但此前由于贸易禁令影响,企业担心未来得不到高算力AI芯片,被逼无奈开始采用部分国产厂商的替代品,这使得SOC路线也开始成为部分具身智能企业的新选择,也印证了黄仁勋“禁令建立在错误假设上”的论调。


例如小鹏AI人形机器人IRON就据称搭载小鹏图灵AI芯片,20248月,小鹏汽车在MONA M03发布会上,发布图灵芯片并宣布流片成功。图灵芯片是小鹏汽车面向L4自动驾驶领域打造的AI芯片,但适用于汽车和机器人等场景,其集成40核处理器和2个独立的图像ISP,集成2个自研的神经网络NPU和神经网络特定领域架构DSA,最高可运行30B参数大模型,据其宣传,1颗小鹏图灵AI芯片的有效算力等效于3NvidiaOrin X或者2Tesla FSD芯片,意味着单颗图灵芯片的AI算力约为750 TOPS。实现了一种芯片多端通用。



当前一机多芯已经成为人形机器人发展的必然,那么智驾芯片是否可以用于人形机器人,有研究发现,目前智驾芯片主要采用昇腾610NvidiaOrin XNvidiaThor U、地平线J6P这几款,以应用场景为视角,智驾与机器人大脑,在思维和运行逻辑上具有较大相似性,二者均是以各类传感器件对真实物理世界进行探测、感知,并将信息收集至智驾/具身智能大脑SoC进行推理,最终做出决策指令发送至执行端,其感知到思维决策的过程几乎一样。在VLA这套打法的成熟度还不算高的情况下,改改系统架构,用智驾SOC芯片+云端当做机器人大脑未尝不可,差异可能体现在对AI推理算力极限的要求上,以及对于触觉感知的上限,但短期影响不大。


此前,特斯拉的人形机器人与车辆也采取类似一套方案Tesla AI ChipFSDHW)芯片,车、机兼用。2016年,特斯拉的自动驾驶系统依赖于英特尔子公司Mobileye提供的感知算法和硬件芯片,Autopilot事故后转向Nvidia,而后自己走上了研发设计AI芯片的历程,特斯拉不到50人组成的精英团队,在极限压力下,连续奋战27个月,终于在2019年初完成了HW3芯片对标NvidiaXavier,目前已经升级为HW5芯片,加上Dojo芯片,完成了“感知→芯片→迭代”的飞轮闭环。



华为如今的芯片探索也尝试了类似路线,其提供的车载芯片与人形机器人芯片有着架构共性。据华为披露,昇腾910910A)架构中采用了32Ascend-Max Core,而昇腾610架构中采用了10Ascend CoreAscend Core是昇腾SoC系列芯片的AI加速核心,华为定义了5个不同规格的Core(从弱到强):Ascend-TinyAscendLiteAscend-MiniAscendAscend-Max。这些Ascend核心可应用于不同场景,不同的Ascend核心由不同的计算单元(Unit)构成。昇腾定义了四种类型的计算单元:Scalar UnitVector UnitMatrix UnitCube Unit,不同的计算单元执行不同的计算操作。因此,以昇腾910为例(910A),其由4HBM21IO Die1Compute Die组成,其中Compute Die32CoreAscend-Max)组成,每个Core由多个CubeVectorUnit组成。那么,根据华为昇腾系列的设计规则,智驾芯片其实与AI GPU在神经网络计算单元上是同源的。


不仅华为如此,Nvidia智驾和AI GPU的芯片架构,其实在同一代际中仍然有相同部分/模块。例如,Nvidia智驾芯片NV Orin SoC采用7nm工艺并集成了Ampere架构的GPU,拥有2048CUDA核心和64Tensor核心;而AI GPU芯片A100也采用7nm工艺,A100命名中的A也代表Ampere架构,拥有6912CUDA核心和432Tensor核心。


因此,智驾芯片与AI GPU在架构上同宗同源,其中最核心的AI神经网络单元或者AI核,本质是相同的,甚至可以说一代AI核的架构可以做出一代智驾和一代AI GPU


但芯片仅仅架构和设计的问题,还是产业链上下游以及量产生态的综合考量。目前,Nvidia2023年实现AI GPU出货量376万颗(TechInsights),占据全球数据中心GPU市场的98%份额,当时产品以A100H100为主;在2024年,市场推测其数据中心GPU出货量在超400万颗,这意味着更成熟的生态体系,全球大约150万开发者在此基础上进行功能优化,如果没有绝对的替代需要,合作共赢或许依然才是最快发展AI与机器人的时代必然。



(文:机器人大讲堂)

发表评论