在GTC 2026上黄仁勋穿着他那件标志性的皮夹克站在台上,眼神里闪烁着那种"我要改变世界"的光芒,宣布了一个惊天动地的计划——把机器人行业的数据难题变成算力难题。
简单来说,以前大家愁的是"没数据训练AI",现在英伟达说"别愁了,我给你造数据,你只管烧显卡就行"。这个逻辑听起来就像是你数学考砸了,老师不说你题做得少,而是说"来,我给你建个虚拟考场,你在里面刷题刷到天荒地老"。
这次发布会的内容多到让人头皮发麻,从自动驾驶出租车到人形机器人,从手术台到卫星轨道,从工厂流水线到5G基站,英伟达就像是一个全能厨师,把物理AI这桌满汉全席的每个菜都炒了一遍。
核心观点其实特别清晰:英伟达要打造一个完整的物理AI平台,从芯片到模型到仿真工具再到安全架构,一手包办。他们不再满足于只做显卡供应商,而是要成为整个物理世界的"数字造物主"。
自动驾驶汽车被黄仁勋称为第一个万亿级机器人产业,而且他还放话说"所有会动的东西终将实现自主化"。
这话听起来霸气侧漏,但仔细想想,你家扫地机器人以后可能真的会有自己的想法,说不定还会嫌弃你家太乱。
自动驾驶的洛杉矶大冒险
说到自动驾驶,英伟达这次和Uber搞了个大新闻。
他们宣布要在2027年上半年,让搭载最新DRIVE Hyperion平台和DRIVE AV软件的无人驾驶车队在洛杉矶和旧金山湾区正式运营。这个时间点选得很有意思,2027年,那时候现在的初中生刚好高中毕业,说不定你拿到驾照的时候,路上已经有AI司机在跟你抢道了。
按照计划,到2028年,这个车队要覆盖四大洲的28个城市。28个城市是什么概念?基本上你打开地图随便指,都有概率戳中一个英伟达无人驾驶车的运营点。这种扩张速度比奶茶店开得还快,只不过这次卖的不是珍珠奶茶,而是AI驾驶体验。
当然,这个时间表能不能兑现还得看实际情况,毕竟科技圈放鸽子是常态,但英伟达的姿态摆得很明确——他们要把DRIVE Hyperion打造成L4级自动驾驶的标准架构。L4级意味着在特定条件下完全不需要人类干预,车子自己就能搞定一切。
除了Uber,比亚迪、吉利、日产这些车企也都加入了英伟达的阵营。日产用的是英国AI公司Wayve的软件,这种混搭风说明英伟达的生态足够开放,不强迫你用全套方案。五十铃这家日本商用车制造商也没闲着,他们和TIER IV合作,基于DRIVE AGX Thor芯片开发自动驾驶公交车。
想象一下,以后你坐的公交车司机是个AI,它不会因为堵车而烦躁,也不会因为乘客太多而翻白眼,这种情绪稳定性简直是公共交通的福音。
安全架构的护城河
自动驾驶这东西,速度快不算本事,不出事才是真功夫。英伟达深谙此道,推出了Halos OS作为安全层。这个系统基于ASIL-D认证的DriveOS构建,ASIL-D是汽车安全完整性等级的最高级别,意味着它在安全性上达到了极致。
Halos OS采用三层架构,还包含了一个NCAP五星安全栈。NCAP就是新车碰撞测试,五星是最高评分。简单说,这套系统就像给自动驾驶汽车穿了三层防弹衣,外面还套了个金钟罩。黄仁勋在台上讲这些的时候,语气里透着那种"我不仅要做最酷的,还要做最安全的"自信。
这种安全架构的推出,实际上是在给整个行业吃定心丸。你想啊,让一辆两吨重的铁疙瘩自己在街上跑,万一出点事那就是大新闻。
英伟达通过Halos OS告诉所有人:放心,我们的AI司机比人类司机靠谱多了。它不会疲劳驾驶,不会酒驾,不会边开车边刷手机,更不会路怒症发作去别别人的车。这种全方位的安全保障,让车企和监管机构都更容易接受自动驾驶技术。当安全性不再是障碍,自动驾驶的普及速度就会像坐火箭一样往上窜。
用嘴开车的未来
英伟达还发布了一个叫Alpamayo 1.5的开源自动驾驶AI模型,这玩意儿最神奇的地方在于它能听懂人话。你可以直接跟它说"开慢一点"或者"超前面那辆车",它就能理解并执行。它的输入包括驾驶视频、运动历史、导航数据,还有自然语言指令,输出的是带有可追溯推理过程的行驶轨迹。这意味着如果你问它"刚才为什么急刹车",它能给你解释得一清二楚,而不是像某些黑箱AI那样"我觉得该刹车就刹车了"。
这个模型支持灵活的多摄像头配置,车企可以用同一套AI方案适配不同的车型,省得为每款车重新开发一遍。
自从发布以来,Alpamayo系列已经被超过10万名开发者下载使用。10万开发者是什么概念?差不多能填满两个鸟巢体育场。这么多人一起折腾这个模型,bug被发现的速度比产生速度还快,功能迭代的速度比你的手机系统更新还频繁。
对于训练验证,英伟达提供了Omniverse NuRec仿真技术,基于3D Gaussian Splatting(三维高斯泼溅)技术,能把真实的驾驶场景重建出来进行交互式测试。现在这项技术已经通过NGC目录对外提供,用户包括dSPACE、Foretellix,还有密歇根大学的Mcity测试场。
这意味着开发者可以在虚拟世界里让AI司机经历各种极端情况,比如突然冲出来的行人、爆胎、暴雨,而不用真的去冒这些风险。
工业机器人觉醒时刻
说完路上的,咱们来看看工厂里的。英伟达这次把工业机器人领域的老大们都拉拢过来了——FANUC、ABB Robotics、YASKAWA、KUKA,这四家公司在全球安装的机器人总数超过200万台。200万台机器人同时工作,那场面比春运火车站还壮观。这些巨头正在把Omniverse库和Isaac仿真框架集成到他们的调试解决方案中,还在控制器里内置了Jetson边缘AI推理模块。简单说,就是给这些工业机器人装上了英伟达的大脑,让它们从"按程序干活的工具"变成"能思考的智能体"。
以前工业机器人就像是被编程好的木偶,只会重复固定的动作,遇到没见过的情况就傻眼。现在有了英伟达的技术加持,它们开始具备学习能力。Jetson模块让这些机器人能在本地进行AI推理,不用事事都问云端,反应速度快得飞起。这种边缘计算能力让工业机器人变得更灵活、更智能,能适应更复杂的生产环境。当机器人学会思考,工厂的生产效率就会像开了挂一样提升,而生产成本则会像坐了滑梯一样下降。
人形机器人的春天
英伟达在人形机器人领域也放了大招。他们发布了Cosmos 3模型,这个模型整合了合成世界生成、视觉推理和动作仿真,目标是超越早期版本的Cosmos模型。对于人形机器人,英伟达把基础模型GR00T N1.7开放给了早期用户,并且提供商业授权。这个模型专门用来实现通用技能,包括精细的灵巧控制。黄仁勋还预告了GR00T N2,这个版本基于英伟达自家的DreamZero研究,采用了全新的"World Action Model"架构。
据英伟达说,搭载GR00T N2的机器人在陌生环境中完成新任务的频率,比领先的视觉-语言-动作模型高出两倍多。这个模型目前在MolmoSpaces和RoboArena基准测试中排名第一,预计2026年底正式发布。
GR00T系列模型的定位是通用模型,能处理各种不同机器人平台上的广泛任务。这意味着你买一个机器人,它既能帮你洗碗,又能帮你遛狗,还能在你打游戏时帮你拿零食。这种通用性打破了以往机器人"一个萝卜一个坑"的局限。
合作伙伴名单长得吓人:1X、AGIBOT、Agility、Boston Dynamics、Figure、Hexagon Robotics、NEURA Robotics都在基于英伟达平台开发人形机器人。Skild AI则与ABB和Universal Robots合作,为各行业开发通用机器人智能,同时还在帮富士康在英伟达自家的Blackwell生产线上进行高精度组装。这就像是英伟达不仅卖铲子给淘金者,还用自己的铲子挖出了金子。
数据工厂的黑魔法
物理AI训练面临的最大难题是数据。这些模型需要海量的训练数据,包括那些罕见但关键的边缘案例,而在现实世界中收集这些数据既困难又昂贵。英伟达推出了Physical AI Data Factory Blueprint(物理AI数据工厂蓝图)来解决这个问题。
这个开源参考架构能自动化处理从原始数据到成品训练数据集的整个流程,分为三个阶段:Cosmos Curator负责数据筛选,Cosmos Transfer负责数据增强,Cosmos Evaluator负责质量评估。这套组合拳打下来,数据准备的效率提升得让人咋舌。
通过这套蓝图和其他仿真平台,英伟达想把机器人行业的数据问题转化为算力问题。以前制约模型能力的瓶颈可能是车企的车队规模,现在变成了公司愿意投入多少算力进行仿真训练。这就像是从"靠天吃饭"变成了"人定胜天",只要你的显卡够多,数据要多少有多少。这种转变彻底改变了物理AI的开发范式。
以前大家卷的是路测里程,现在卷的是GPU集群规模。对于英伟达来说,这简直是完美的商业模式——他们既卖解决数据问题的方案,又卖运行这些方案所需的算力,一鱼两吃,吃得满嘴流油。
智能编排的魔法棒
英伟达还发布了一个叫OSMO的编排框架,它能与Claude Code、OpenAI Codex、Cursor等编程智能体集成,让AI智能体能够自主管理数据管道中的资源和瓶颈。微软Azure和Nebius已经把这套蓝图集成到他们的云服务中,GitHub版本计划在4月发布。
这意味着开发者可以像指挥乐队一样指挥AI智能体,让它们自动处理那些繁琐的数据处理任务。当AI开始管理AI,人类开发者就可以从重复劳动中解放出来,专注于更有创造性的工作。
这种自动化程度的提升,让整个物理AI开发流程变得像流水线一样顺畅。数据从收集到清洗到增强再到评估,全程有AI把关,人类只需要在关键节点做决策。这不仅提高了效率,还降低了出错率。当开发周期缩短,创新速度就会加快,更多酷炫的机器人应用就会像雨后春笋一样冒出来。
英伟达通过OSMO,实际上是在构建一个自我强化的生态系统——越多的开发者使用,系统就越智能;系统越智能,就越能吸引更多的开发者。
手术室里的AI助手
英伟达的边缘计算平台IGX Thor现在也正式商用了,这个平台本质上就是一台面向边缘应用的AI PC,专门针对安全关键场景设计。强生公司把它用在Polyphonic数字手术平台上,Karl Storz正在用它开发内窥镜工具,美敦力则在评估将其用于手术机器人系统。医疗领域对安全性的要求比汽车行业还要高,毕竟这里面对的是人命关天的手术。IGX Thor能进入这个领域,说明它的可靠性和性能都达到了医疗级的严苛标准。
在医疗之外,卡特彼勒用IGX Thor开发AI驾驶舱助手,日立铁路用它做预测性维护,Planet Labs计划用它直接在轨道上处理卫星数据。CERN的研究人员也在用这个平台开发受物理启发的AI模型。从手术台到矿山,从铁轨到太空,IGX Thor的应用场景横跨了人类活动的各个角落。这种跨领域的通用性,证明了英伟达平台架构的灵活性。当一个技术平台能在这么多完全不同的领域都发挥作用,它的价值就会呈指数级增长。
5G网络变身AI基础设施
英伟达还联手T-Mobile和诺基亚,要把5G移动网络变成分布式的边缘AI基础设施。
T-Mobile正在网络站点试点英伟达 RTX PRO 6000 Blackwell Server Edition,测试通过蜂窝网络运行物理AI应用。黄仁勋把电信网络描述为正在演变为能让数十亿设备实时看、听、行动的AI基础设施。这个愿景听起来像是给整个地球装上了神经系统,每个设备都是神经末梢,5G网络就是传导信号的神经纤维。
思路很简单:与其把繁重的AI计算从摄像头和机器人发送到云端,不如把计算任务卸载到最近的网络边缘站点。试点项目包括为圣何塞开发的"城市运营智能体"解决方案,用于优化交通信号控制,据说能把事故响应时间缩短五倍。Levatas和Skydio正在通过5G网络自动化电力线路巡检。
当5G遇上边缘AI,响应延迟低到人类感知不到,实时性要求高的应用就能真正落地。这种基础设施的升级,为物理AI的大规模部署铺平了道路。
视频AI的千里眼
英伟达推出了Metropolis VSS 3蓝图,旨在打造能够搜索和总结视频内容的AI智能体。特定事件可以在五秒内被找到。全球有超过15亿台摄像头,但据英伟达统计,只有不到百分之一的视频内容被人类查看过。这意味着我们产生了海量的视觉数据,却几乎没能利用它们。Metropolis VSS 3就像给这些摄像头装上了大脑,让它们能看懂画面、理解事件、主动报警。
当视频AI能够实时分析所有摄像头的画面,城市的安全水平就会大幅提升。丢失的物品可以被快速定位,交通事故可以被即时发现,可疑行为可以被及时预警。这种能力不仅服务于公共安全,也能用于商业分析,比如统计商场客流、优化货架摆放。
视频数据的利用率从不到百分之一提升到接近百分之百,这种效率的飞跃将催生出无数新的应用场景和商业模式。
芯片设计的AI革命
在软件层面,英伟达正在与Cadence、达索系统、西门子、新思科技合作。这四家公司都在为芯片和系统工作流程构建AI智能体,并在发布会上作为案例展示了物理AI模型如何助力研发制造,以及英伟达的GPU如何加速这些流程。
Cadence在构建"ChipStack AI SuperAgent",西门子在开发"Fuse EDA AI Agent",新思科技推出了"AgentEngineer"框架,达索则在打造基于角色的"Virtual Companions"。这些AI智能体就像是芯片设计师的数字助手,能帮他们处理繁琐的验证工作、优化电路布局、预测性能瓶颈。
本田使用新思科技的Ansys Fluent在Grace Blackwell平台上进行空气动力学仿真,速度比用CPU快34倍。
捷豹路虎和奔驰在使用西门子Simcenter STAR-CCM+配合英伟达基础设施。
联发科用H100 GPU把Cadence Spectre加速了六倍。
在半导体制造领域,三星、SK海力士、台积电都在使用GPU加速工具进行光刻和物理验证。
西门子的新Digital Twin Composer基于Omniverse库构建,旨在为富士康、HD现代、百事可乐、KION提供工业数字孪生。
云服务基础设施来自AWS、谷歌云、微软Azure和甲骨文。
当AI开始设计芯片,设计的迭代速度就会像坐上了时光机,一代产品的开发周期可能从几年缩短到几个月。