首款HBM4 GPU,全面投产

英伟达下一代AI芯片Rubin与Vera CPU发布 - 英伟达在CES 2026期间宣布,其下一代Rubin AI芯片已“全面投产”,并将于2026年下半年上市 [1] - 公司同时正式发布了下一代AI数据中心机架级架构Vera Rubin,由Vera CPU、Rubin GPU等六种芯片协同设计而成 [6] - 首席执行官黄仁勋强调,公司必须每年推进计算技术进步,并计划每年推出新一代人工智能超级计算机 [1][3] Rubin GPU性能规格与提升 - Rubin GPU的推理计算性能是Blackwell的5倍,训练计算性能是Blackwell的3.5倍 [2] - 在处理NVFP4数据时,Rubin可提供50 petaflops的推理性能,而Blackwell最高为10 petaflops [2] - Rubin的训练速度提升了250%,达到35 petaflops [2] - 与Blackwell相比,Rubin的推理令牌成本最多可降低10倍,训练令牌成本最多可降低四分之一 [2][10] - Rubin架构包含3360亿个晶体管,并集成了新一代HBM4内存,数据传输速度高达每秒22 TB,是Blackwell的2.8倍 [2][3][11] - 每个Rubin GPU配备8个HBM4显存堆栈,提供288GB容量和22 TB/s带宽 [7] - Rubin的Transformer Engine基于新设计,具备硬件加速自适应压缩功能以提升性能 [2] Vera CPU性能规格 - Vera CPU采用88个定制的Olympus Arm核心,并支持“空间多线程”技术,可同时运行多达176个线程 [8][12] - 每个Vera CPU可寻址高达1.5 TB的LPDDR5X内存,内存带宽高达1.2 TB/s,容量是上一代Grace的三倍 [8][12] - 用于连接Vera CPU与Rubin GPU的NVLink C2C互连带宽翻倍,达到1.8 TB/s [8] 系统级产品与扩展方案 - Vera Rubin NVL72机架可集成36个Vera CPU和72个Rubin GPU [12] - 该机架配备9个NVLink 6交换机,总纵向扩展带宽可达260 TB/s,每个交换机拥有28 TB/s带宽,每个GPU的交换矩阵带宽提升至3.6 TB/s [7] - 公司还发布了用于横向扩展的高速网络新产品,包括ConnectX-9 SuperNIC、BlueField-4 DPU和集成了光模块的Spectrum-6以太网交换机 [8][13] - 推出了“DGX SuperPOD with DGX Vera Rubin NVL72”,由八块Vera Rubin NVL72组成,可使用256个Vera CPU和512个Rubin GPU [14] - 面向OEM厂商的设计包括“HGX Rubin NVL8”(集成八个Rubin模块)和专为x86处理器设计的“DGX Rubin NVL8” [13] 生产、上市与合作伙伴 - Rubin系列芯片已经“全面投产”,并将于2026年下半年提高产量 [3] - 微软Azure和CoreWeave将成为首批在2026年下半年提供由Rubin支持的云计算服务的公司之一 [3] - Vera和Rubin将通过四大云服务提供商(AWS、谷歌云、微软Azure和Oracle云基础设施)以及戴尔科技、HPE、联想和超微等OEM提供 [14] - OpenAI、Anthropic和Meta等人工智能模型开发公司已经宣布了他们的采用计划 [14] 市场背景与公司展望 - 黄仁勋表示,即使没有中国或其他亚洲市场,公司预计到2026年,其最先进的Blackwell AI芯片和Rubin的“早期产能提升”也将带来5000亿美元的收入 [5] - 公司认为人工智能的未来将主要体现在物理世界中,并在CES上宣布与比亚迪、LG电子和波士顿动力公司等制造商、机器人制造商和汽车制造商达成合作 [5] - 黄仁勋称“机器人领域的ChatGPT时刻已经到来”,物理人工智能的突破正在解锁全新应用 [5] 行业面临的挑战 - 整个行业正陷入零部件短缺困境,尤其是尖端DRAM内存,全球只有美光、SK海力士和三星三家公司能够生产 [16][17] - DRAM短缺可能导致英伟达五年来首次在CES上未发布新的消费级GPU,打破了连续五年发布新款GPU的惯例 [15][16] - 对通用人工智能(AGI)的渴求促使公司制定了超出当前供应链承载能力的计算目标,AI客户愿意支付更高利润进一步加剧了消费级市场的供应紧张 [17]