黄仁勋罕见提前宣布:新一代GPU全面投产

产品发布节奏与战略 - 英伟达在2026年1月5日的CES上,出乎意料地提前发布了下一代AI芯片平台"Rubin",打破了其通常在每年3月GTC大会上集中公布新一代架构的传统[2] - 公司高管表示,提前披露Rubin主要是为了尽早向生态伙伴提供工程样品,方便其为后续部署和规模化应用做准备,但Rubin仍将按照既定节奏推进,计划在2026年下半年进入量产爬坡阶段[7] - 此次发布标志着AI竞赛进入推理时代,公司决定加速出击[3] Rubin平台核心规格与性能 - Rubin平台采用极端协同设计理念,整合了6颗芯片,包括NVIDIA Vera CPU、Rubin GPU、NVLink 6交换芯片、ConnectX-9 SuperNIC、BlueField-4 DPU以及Spectrum-6以太网交换芯片[5] - 相比前代Blackwell架构,Rubin加速器在AI训练性能上提升3.5倍,运行性能提升5倍,并配备拥有88个核心的新款中央处理器(CPU)[5] - 相比Blackwell平台,Rubin平台实现推理token成本最高可降低10倍,训练MoE模型所需GPU数量减少4倍[5] - 同步发布了Vera Rubin NVL72机柜级系统,该系统包含72个GPU封装单元,每个封装内部包含2个Rubin Die,因此系统中实际包含144个Rubin Die[6] 生态系统与合作 - Rubin平台已获得头部云厂商和模型公司的集中响应,首批采用名单包括AWS、Microsoft、Google、OpenAI、Anthropic、Meta、xAI、CoreWeave等[6] - 构成Vera Rubin平台的六颗芯片已经全部到位,相关系统已在运行真实应用负载,并取得了积极结果[7] 全栈AI与推理系统布局 - 公司发布了一系列AI体系产品,包括开源模型、AI存储、物理AI等,展示了其全栈AI布局,并释放信号表明AI重心继续从"训练规模"转向"推理系统"[9] - 发布了推理上下文存储平台,这是一个专为推理场景设计的AI原生存储平台,由BlueField-4 DPU与Spectrum-X以太网支撑,用于高效管理和共享KV Cache,减少重复计算带来的算力浪费[9] - 公司特别强调了物理AI的长期布局,发布了一系列开源模型、开发框架和硬件平台,将AI能力从数据中心延伸至机器人、自动驾驶与工业边缘场景[9] 物理AI具体产品发布 - 面向机器人领域,发布了Cosmos与GR00T系列开源模型,用于机器人学习、推理与动作规划[9] - Cosmos Reason 2是一款推理型视觉语言模型,使机器能够"看见、理解并在物理世界中行动"[10] - GR00T N1.6 则是一款面向类人机器人的推理型视觉-语言-动作模型,用于解锁全身控制能力[10] - 在自动驾驶领域,发布了Alpamayo开源模型家族,定位为面向"长尾场景"的推理型自动驾驶基础模型,配套发布了AlpaSim高保真仿真框架以及覆盖1700多小时驾驶数据的开源数据集[13] - 公司首款AV车将于2026年第一季度在美国推出,其他地区紧随其后[13] 行业竞争格局演变 - 从Rubin平台的提前亮相,到推理存储与物理AI的同步推进,公司正在将AI基础设施的竞争推向"系统工程能力"[13] - 在这一阶段,真正拉开差距的,已不只是芯片算力本身,而是从架构、系统到生态的整体交付[13]

黄仁勋罕见提前宣布:新一代GPU全面投产 - Reportify