文章核心观点 - 英伟达在CES 2026上宣告AI发展进入历史性转折点,从理解语言走向改造物理世界,并系统性披露了面向“物理AI”的最新技术路线图 [2] - 公司正试图以一套完整的全栈式计算与软件体系,推动AI从“看懂世界”走向“理解、推理并行动” [2] 双重平台迁移与行业根本性转变 - 计算的核心正从传统CPU转向以GPU为核心的加速计算 [4] - 应用开发的基础正从预定规则代码转向以人工智能为基座,应用程序转变为能理解语境、动态生成内容的全新实体 [4] - 这两种根本性转变同时发生、相互交织,彻底重塑了计算的本质 [4] 2025年AI关键进展与趋势 - 2025年开源模型取得关键突破,虽仍落后尖端模型约六个月,但已触及技术前沿 [3][9] - 具备推理能力的模型出现,创造了“Test Time Scaling”革命性概念,即实时思考的能力 [6] - 能自主思考的Agent系统在2024年诞生,2025年已渗透到各个角落,能推理、检索信息、使用工具、规划未来 [8] - 物理AI是与物理世界交互及理解物理定律的AI,是除大语言模型外最重要的一类AI [8] - 开源模型的突破激活了全球企业、行业,模型下载量呈现爆炸式增长 [9] 英伟达的物理AI战略与三台计算机体系 - 构建物理AI需要三台计算机:用DGX训练AI模型,通过Omniverse和RTX上的Cosmos来仿真、测试与验证模型,最后通过AGX将模型部署到现实世界 [12] - 物理AI浪潮为英伟达物理AI部门带来近万亿美元的机遇 [12] - 公司将物理AI模型分为三大系列:Cosmos World基础模型、通用机器人模型GROOT,以及具备思考能力的自动驾驶模型AlphaMayo [12] Cosmos世界基础模型进展与应用 - Cosmos在对物理世界的理解上已与GPT-40、Gemini等顶级模型并驾齐驱,在物理推理等关键评估中取得更高分数 [14] - 这些模型下载量已突破400万次 [14] - 正驱动制造、物流、医疗健康与出行等各行业的实际应用,例如日立、Lem Surgical、Salesforce、Telet、Uber等公司均已部署 [14] 开源自动驾驶模型AlphaMayo - AlphaMayo是全新的开源AI模型、仿真工具和数据集系列,用于训练物理机器人和车辆,旨在帮助自动驾驶车辆应对复杂情况 [16] - 这是史上首个让自动驾驶车辆具备思考能力的模型,可以让自动驾驶汽车“像人类一样思考”,通过推理解决复杂边缘场景 [16] - 模型拥有100亿参数,既足以处理任务,又轻量化到可在工作站运行 [18] - 公司开源了包含17小时驾驶记录的数据集,成为业内最大最多元的公开自动驾驶数据集 [19] - 同时发布完全开源的AlpaSim仿真框架,用于评估推理模型 [19] 开源机器人模型GROOT 1.6与开发平台 - 发布GROOT 1.6,这是专为人形机器人打造的最新开源推理模型 [24] - 该版本采用Cosmos Reason作为长效思考中枢提升推理能力,并解锁了人形机器人全身协调控制能力 [24] - GROOT 1.6已成为社区热门选择,位列Hugging Face平台下载量最高的机器人基础模型之一 [24] - Isaac机器人平台提供了构建“通专融合型机器人”所需的开放框架、模型与工具库 [24] - 开发了开源控制中心NVIDIA OSMO,整合从数据生成到训练的完整流程 [26] - 发布Isaac Lab Arena,这是全球首个用于在仿真环境中安全测试机器人技能的开源框架 [26][27] 机器人生态合作与硬件支持 - 波士顿动力、Franco Robotics、Lem Surgical、LG电子等先进机器人公司已在Isaac与GROOT基础上构建其新一代物理AI系统 [29] - 英伟达与Hugging Face合作,将200万英伟达机器人专家与1300万Hugging Face AI开发者社区连接起来 [30] - 推出基于Blackwell架构的Jetson T4000,在40-70瓦功耗下提供1,200TOPS的AI算力与64GB内存,其AI性能与能效较AGX Orin提升4倍 [31] AI超算Vera Rubin发布 - 发布面向人工智能数据中心的新计算平台Vera Rubin,该系统目前正在生产中,首批产品将于2026年下半年上市 [32][36] - AI模型规模每年以10倍速度增长,推理变为思考过程导致计算需求爆炸,每年生成的文本量以5倍速度增长 [34] - 每次达到新边界,上一代AI生成文本的成本就会下降约10倍 [34] - Vera Rubin是一个由六种芯片(Vera CPU、Rubin GPU等)通过极致协同设计组成的系统 [38][44] - 系统重近2吨,包含220万亿个晶体管,是100%全液冷设计 [37][41] - 计算板卡可提供100 Petaflops的AI算力,是前代的5倍 [40] - 自设计启动以来累计投入1.5万工程师·年 [41] - 虽然功耗翻倍,但冷却液温度保持45°C,整个系统能效提升约两倍,预计能为全球数据中心节省6%的电力 [47] - 以训练10万亿参数模型为例,Rubin的吞吐量远超Blackwell,仅需1/4数量的系统即可在一个月内完成相同训练 [49]
黄仁勋CES最新演讲:Rubin 今年上市,计算能力是 Blackwell 5 倍、Cursor 彻底改变了英伟达的软件开发方式、开源模型落后先进模型约6个月