公司战略与定位 - 公司CEO黄仁勋强调公司已转型为AI基础设施公司,而不仅仅是芯片供应商,其CES主题演讲超过70%的篇幅聚焦于物理AI的应用场景与商业化路径[2] - 公司角色从芯片供应商转变为“全栈AI体系”构建者,通过开源模型、数据及开发库,为全球提供构建物理AI的底座[9] - 公司通过“三台计算机”(训练、推理、模拟)的架构,以及扩展的开源模型生态,构建其在推理时代的AI基础设施叙事[8][9][10] 新一代AI计算平台:Vera Rubin - Rubin平台是公司在CES 2026上推出的最大亮点,已全面投产,是首个采用协同设计、集成6款芯片的AI平台[2][4] - 平台集成的6款芯片包括:Vera CPU、Rubin GPU、NVLink 6交换机芯片、ConnectX-9 Spectrum-X SuperNIC超级网卡芯片、BlueField-4 DPU和Spectrum-6以太网交换机芯片[4] - 平台重新设计6颗芯片的原因是摩尔定律放缓与AI需求爆炸,模型参数规模每年增长10倍,推理生成的token数量每年增长5倍,单token成本每年下降10倍[4] Rubin平台性能与技术创新 - 核心芯片Rubin GPU相比前代Blackwell实现跨代跃升:NVFP4推理性能提升至50 PFLOPS(5倍)、训练性能提升至35 PFLOPS(3.5倍)、HBM4内存带宽提升至22TB/s(2.8倍)、单GPU NVLink互连带宽翻倍至3.6TB/s[5] - 公司CEO表示Spectrum-X网络方案非常成功,可实现25%更高的吞吐量,仅10%的性能提升就价值50亿美元,公司已成为全球有史以来最大的网络公司[5] - 平台引入由BlueField-4 DPU支持的推理上下文内存存储平台,作为新型AI存储基础设施,以应对多轮对话产生的KV Cache,公司CEO称公司可能成为世界上最大的存储公司之一[6] - 分析师认为,对于使用公司全栈GPU解决方案的企业价值较大,因为能带来更优的算存网资源运营与分配[6] 平台系统设计与功耗 - Vera Rubin NVL72系统包含18个计算托盘和9个NVLink交换机托盘,计算托盘采用“无线缆、无水管、无风扇”设计,组装一个计算节点仅需5分钟,而过去需要2小时[7] - 整个系统为100%液冷,使用45°C热水,无需冷水机,但功耗是前代GB200 NVL72系统的两倍[7] 开源模型生态与影响 - 开源模型在2025年取得显著进步,下载量爆炸式增长,虽然仍落后前沿模型约6个月,但进步迅速[8] - 2025年,每4个token中就有1个由开源模型生成,公司CEO提到公司在领导开源模型生态,并多次提及DeepSeek、Kimi、Qwen等中国开源模型[2][8] - 公司扩展其开源模型生态,新增和更新了一系列模型、数据集、代码库和工具,覆盖生物医学AI、AI物理模拟、Agentic AI、物理AI、机器人和自动驾驶6大领域[8] - 公司CEO曾表示,2025年及2026年Blackwell和Rubin平台可带来的收入超过5000亿美元,并因新进展(如Anthropic将使用其平台)而应增加对该数字的期望[8] 物理AI与推理应用 - AI发展进入“物理AI”新阶段,需要AI理解物理定律并进行推理[9] - 公司推出了开源的物理AI世界基础模型Cosmos,它经过海量视频、真实驾驶与机器人数据以及3D模拟预训练,能理解世界运行规律,实现生成内容、推理、预测轨迹等功能[9] - 公司正式发布了世界首个会思考、会推理的自动驾驶AI——Alpamayo,它是面向自动驾驶领域的开源工具链,也是首个开源的视觉—语言—行动推理模型,并开源了从数据到部署的完整开发资源[9][10]
英伟达新一代Rubin平台 欲重构AI与世界的联结