华尔街点评GTC:在英伟达的定义里,算力即收入,Token是新的大宗商品

AI算力商业逻辑重构 - 公司提出核心叙事:Token已成为新的大宗商品,算力即收入 [1] - Blackwell系统相较上一代Hopper,每Token成本降低高达35倍,即将推出的Rubin系列有望在此基础上再降低2至35倍 [1] - 持续压缩的Token成本曲线被视为驱动AI需求规模化扩张的根本动力 [1] 需求能见度与结构 - 公司管理层将数据中心销售可见度从5000亿美元(覆盖至2026年)大幅上调至逾1万亿美元(覆盖2025至2027年累计)[1] - 高置信度采购订单已超过1万亿美元,较2025年10月公布的5000亿美元翻倍 [2] - 需求结构多元化:约60%来自超大规模云厂商,约40%分布于CUDA云原生AI企业、云合作伙伴、主权AI及工业/企业客户 [2] 传统企业工作负载加速 - 公司阐述了传统企业工作负载加速这一需求向量,宣布与IBM、谷歌云、戴尔等合作,并推出cuDF及cuVS两大CUDA-X基础库 [3] - 该方向逻辑在于摩尔定律趋于失效,领域专用加速是唯一可行的替代路径,这将把公司的可寻址市场扩展至AI训练/推理周期之外 [3] 架构创新:Groq LPU整合 - Groq 3 LPU与Vera Rubin的整合被评定为架构层面最重要的新品发布 [4] - 该解耦推理架构将高吞吐量的Rubin GPU与低延迟解码的Groq LPU配对使用,优化不同工作负载 [4] - LPX机架集成256颗LPU,提供128GB聚合SRAM、40PB/s内存带宽及315 PFLOPS推理算力,预计2026年第三季度上市 [4] - 对于需要超高Token速度的工作负载,约25%的数据中心功耗将分配给LPX机架 [4] - Rubin系统搭配SRAM LPX机架后,高端低延迟工作负载的效率可较上一代提升35倍 [5] - 该架构解决了单一处理器无法同时优化吞吐量与延迟的矛盾,使公司能在高端推理市场有效竞争 [6] 互联技术路线 - 公司将同时推进铜缆与共封装光学两条互联路线 [7] - 在Vera Rubin世代,Oberon机架采用铜缆扩展至NVL72,光学扩展至NVL576 [7] - Spectrum-6 SPX共封装光学以太网交换机已量产,其光学功耗效率较传统可插拔收发器提升5倍,韧性提升10倍 [7] - 对于Rubin Ultra,Kyber机架采用铜缆NVLink扩展,同时提供基于CPO的NVLink交换方案作为备选 [7] - CPO扩展对客户完全可选,预计铜缆扩展将在至少2027年前继续主导NVL72/NVL144配置 [7] 独立CPU业务 - Vera CPU独立业务被确定将成为一个数十亿美元量级的业务,属于增量收入来源,尚未被当前市场一致预期所涵盖 [8] - Vera CPU搭载88颗自研ARM核心,内存带宽1.2TB/s,功耗仅为传统服务器CPU的一半,通过NVLink-C2C以1.8TB/s速率与GPU互联 [8] - CPU正成为智能体AI扩展的瓶颈,强化学习与智能体工作流需要大量CPU环境来测试和验证GPU模型的输出结果 [8] - Meta已在规模化部署上一代Grace CPU,Vera将于2027年接替 [8] 产品路线图与平台战略 - 公司重申年度平台发布节奏:Blackwell(2024年)→ Blackwell Ultra(2025年)→ Rubin(2026年)→ Rubin Ultra(2027年)→ Feynman(2028年)[9] - Rubin Ultra将采用4芯片GPU配置,搭载1TB HBM4e,新增LP35 LPU芯片,Kyber机架支持每NVLink域144颗GPU [9] - Feynman细节超出预期:采用台积电A16(1.6nm)工艺,引入芯片堆叠与定制HBM;新CPU命名为Rosa;新LPU命名为LP40;还包括BlueField-5 DPU、ConnectX-10超级网卡等 [9] - 公司纵向整合平台横跨七颗芯片、五种机架系统及配套软件栈,难以被复制 [10] - 推理需求加速、传统工作负载加速带来的可寻址市场结构性扩张,以及客户基础的持续拓宽,共同支撑着一个更具持续性的AI资本开支周期 [10]