黄仁勋CES演讲全文来了!Rubin全面投产,算力暴涨5倍,砸掉智驾门槛All in物理世界

文章核心观点 英伟达在CES 2025上通过其CEO黄仁勋的演讲,全面展示了公司在人工智能(AI)领域从底层硬件到上层应用的全栈领导力[1] 演讲核心传递了公司正从“生成式AI”向“推理型AI”和“物理AI”进行战略范式转移,并通过名为Vera Rubin的新一代AI计算平台等一系列突破性技术,旨在解决AI大规模推理的成本、记忆(显存)和能源效率瓶颈,加速AI在云端和物理世界的商业化落地[5] 基础设施与算力:Vera Rubin平台与极端协同设计 - 新一代AI计算平台全面投产:Vera Rubin AI平台的全部六款核心芯片已完成制造和关键测试,进入全面生产阶段,计划于2026年下半年交付首批客户[6][8] - 极端协同设计突破物理极限:在晶体管数量仅增长1.6倍的物理瓶颈下,通过CPU、GPU、网络芯片到冷却系统的全方位协同设计,强行实现推理性能5倍提升(达50 PFLOPS)和训练性能3.5倍提升[5][10] - 大幅降低推理成本:明确回应市场对AI成本过高的担忧,Rubin平台将推理Token生成成本压低至上一代Blackwell平台的1/10[6][8] - 革命性连接与冷却技术:NVLink 6将机架内通信带宽推高至240 TB/s,是全球互联网总带宽的两倍以上[11] Rubin架构支持45℃温水冷却,无需高能耗冷水机组,可直接为全球数据中心节省6%的电力[6][22] - 解决AI“记忆”瓶颈:利用BlueField-4 DPU构建推理上下文内存存储平台,为每颗GPU额外增加16TB高速共享内存,彻底解决长文本和长时对话的“显存墙”问题[6][15][17] 模型演进:从生成式AI到推理型AI - 确立范式转移:公司正式确立了从“生成式AI”向“推理型AI”(Test-time Scaling)的范式转移,强调AI不再是单次问答,而是需要多步思考和规划的思维链过程[5][14] - 应对算力需求转移:AI模型展现出的思维链能力意味着未来算力消耗将从训练侧大规模转移到推理侧,这创造了巨大的增量算力需求[14] - 开源模型生态扩张:通过开源Alpamayo(自动驾驶推理)、Cosmos(物理世界模型)以及Nemotron(智能体)等系列模型,推动AI具备逻辑推理和长时记忆能力,以处理复杂长尾场景[5][29] 物理AI落地与商业化 - 自动驾驶模型商业化落地:发布全球首款开源的、具备推理和决策解释能力的自动驾驶模型Alpamayo,并明确首款搭载英伟达全栈DRIVE系统的梅赛德斯-奔驰CLA车型将于2026年第一季度在美国上路[6][18][20] - 深入工业制造领域:与工业巨头西门子达成深度全栈合作,将英伟达的物理AI、代理AI模型和Omniverse平台集成到西门子的工业软件与数字孪生工具链中,标志着AI技术向万亿美元规模的工业经济全面渗透[5][24][26][27] - 机器人生态系统构建:展示了涵盖人形机器人、工业机械臂等多种机器人的广泛生态系统,并通过Omniverse中的Isaac Sim等工具提供机器人训练与模拟能力[37][69][70] 开放生态与产业合作战略 - 主动引领开源生态:面对强大的开源模型趋势,公司选择成为开源的领导者,宣布扩展其“开放模型宇宙”,覆盖生物医学、物理世界等六大领域,并提供包括训练数据、模型架构在内的全套开源工具链[29][35][38] - 赋能企业AI应用:与Palantir、ServiceNow、Snowflake等全球领先的企业平台公司合作,将英伟达的AI技术加速并整合到其平台中,使智能体系统成为未来企业软件的新界面[57] - 重塑芯片设计行业:与Cadence、Synopsys等EDA(电子设计自动化)公司合作,将AI技术集成到芯片与系统设计工具中,未来将在这些工具内部设计和仿真整个制造流程[71][72][73]