黄仁勋罕见提前宣布:新一代GPU全面投产

英伟达在CES 2026提前发布下一代AI平台Rubin - 公司于2026年1月5日在美国CES上,出乎意料地提前发布了下一代AI芯片平台“Rubin”,打破了通常在每年3月GTC大会发布新架构的传统 [2] - 此举标志着AI竞赛进入推理时代,公司决定加速出击 [2] Rubin平台的技术细节与性能 - Rubin平台采用极端协同设计理念,整合了6颗芯片,包括Vera CPU、Rubin GPU、NVLink 6交换芯片、ConnectX-9 SuperNIC、BlueField-4 DPU以及Spectrum-6以太网交换芯片 [4] - 相比前代Blackwell架构,Rubin加速器在AI训练性能上提升3.5倍,运行性能提升5倍,并配备拥有88个核心的新款CPU [4] - 相比Blackwell平台,Rubin平台实现推理token成本最高可降低10倍,训练MoE模型所需GPU数量减少4倍 [5] - 同步发布了Vera Rubin NVL72机柜级系统,该系统包含72个GPU封装单元,每个封装内部包含2个Rubin Die,因此实际包含144个Rubin Die [5] Rubin平台的量产计划与生态支持 - 公司高管表示,构成Rubin平台的六颗芯片已经全部到位,相关系统已在运行真实应用负载 [6] - Rubin计划在2026年下半年进入量产爬坡阶段,时间安排与此前路线图一致 [6] - 在生态层面,Rubin已获得AWS、Microsoft、Google、OpenAI、Anthropic、Meta、xAI、CoreWeave等头部云厂商和模型公司的集中响应,被列入首批采用名单 [6] 全栈AI布局:从训练转向推理系统 - 公司发布了一系列AI体系产品,包括开源模型、AI存储、物理AI等,展示了其全栈AI布局 [8] - 公司的AI重心正继续从“训练规模”转向“推理系统” [8] - 发布了推理上下文存储平台,这是一个专为推理场景设计的AI原生存储平台,由BlueField-4 DPU与Spectrum-X以太网支撑,旨在减少重复计算带来的算力浪费 [8] 物理AI的长期布局 - 公司围绕物理AI推进,发布了一系列开源模型、开发框架和硬件平台,将AI能力延伸至机器人、自动驾驶与工业边缘场景 [8] - 公司CEO表示,AI正发展成为能够理解物理世界、进行长期推理、使用工具并保有记忆的智能协作者 [8] - 面向机器人领域,发布了Cosmos与GR00T系列开源模型,其中Cosmos Reason 2是推理型视觉语言模型,GR00T N1.6是面向类人机器人的推理型视觉-语言-动作模型 [9] - 公司CEO认为“机器人领域的ChatGPT时刻已经到来” [9] 自动驾驶领域的进展 - 在自动驾驶领域,发布了Alpamayo开源模型家族,定位为面向“长尾场景”的推理型自动驾驶基础模型 [11] - 配套发布了AlpaSim高保真仿真框架以及覆盖1700多小时驾驶数据的开源数据集 [11] - 公司的首款AV车将于2026年第一季度在美国推出,其他地区紧随其后 [11] 竞争焦点转向系统工程能力 - 从Rubin平台的提前亮相,到推理存储与物理AI的同步推进,公司正在将AI基础设施的竞争推向“系统工程能力” [11] - 在这一阶段,真正拉开差距的已不只是芯片算力本身,而是从架构、系统到生态的整体交付 [11]