Rubin平台发布与核心性能 - 英伟达在CES2026正式推出并宣布Rubin平台量产,标志着人工智能超级计算领域迎来全新技术迭代 [2] - Rubin平台由6款全新芯片协同组成,整合为性能强劲的AI超级计算机,可大幅缩短AI训练时间并显著降低推理Token生成成本 [2] - 新一代Vera CPU基于Armv9.2架构定制化核心打造,集成88个核心与176线程,支持1.5 TB系统内存,为Grace平台的3倍,相较Grace平台实现了2倍的数据处理、压缩及CI/CD性能提升 [5] - Rubin GPU集成第三代Transformer引擎,为AI推理提供50 petaflops的NVFP4算力,单GPU带宽达到3.6TB/s,Vera Rubin NVL72机架的整体带宽提升至260TB/s [8] - 平台关键性能指标对比前代实现显著提升:NVFP4推理算力达50 PFLOPS,为前代的5倍;NVFP4训练算力达35 PFLOPS,为前代的3.5倍;HBM4带宽达22 TB/s,为前代的2.8倍;晶体管数量达3360亿个,为前代的1.6倍 [6] 物理架构与散热创新 - Rubin架构对计算托盘进行重新设计,实现了100%全液冷设计,底盘内部彻底取消了风扇,完成了从前代约80%液冷到全液冷的转变 [10] - 平台实现“零电缆”化,计算节点内部从前代的43根电缆减少到0根电缆,取而代之的是6根液冷管道,大幅缩短单个节点组装时间并降低误操作风险 [10] - 散热系统采用类似前代GB200的大冷板架构设计,1块大冷板覆盖1CPU+2GPU的组合,NV72 GB200单台机架计算托盘配备36块大冷板 [10] - 相较之下,GB300平台采用“独立式”设计,为每颗GPU配备专属独立冷板,NV72 GB300单台机架计算托盘需108块独立冷板 [10] - Rubin平台热管理核心突破在于利用高温进水实现极高功率密度散热,尽管功耗是Grace Blackwell的2倍,但其液冷系统依然可以使用45°C的温水进行冷却 [12][15] - 该高效液冷架构使数据中心不再需要昂贵且耗能的制冷机组,预计能够节省全球数据中心约6%的电力 [15] 前代GB200与GB300平台架构 - GB300平台单机TDP突破1.2kW,刷新AI服务器能耗上限,系统内部集成72颗Blackwell GPU与36颗Grace CPU,组成18个Grace Blackwell Superchip,所有GPU之间通过NVLink Switch System实现互联 [16][19] - GB200 NVL72采用机架式液冷设计,搭载72个Blackwell GPU和36个Grace CPU,机架由18个计算托盘和9个交换机托盘组成,计算托盘基于NVIDIA MGX设计 [20] - GB200采用“集成式”液冷设计,1块大冷板覆盖1CPU+2GPU,成本优先,一台机架其计算托盘需36块大冷板 [20] - GB300采用每个芯片配独立小冷板的设计,并为每块冷板配置一进一出的快接头,导致快接头使用量显著提升 [21] - 架构对比显示,GB200每个Tray配置2块大冷板,整机快接头总数为108对;GB300每个Tray为6芯片配置独立冷板,整机快接头总数达252对 [20] 液冷板供应商生态 - 多家散热方案供应商为英伟达高功耗AI平台提供液冷解决方案,形成广泛生态合作 [25][27][29][31][33][35][37][39][43][46][48][50][53][55][57] - 主要供应商包括Cooler Master、奇鋐科技(AVC)、Boyd (宝德)、双鸿科技(Auras)、台达(Delta)、CoolIT Systems、富士康(Foxconn)、Chilldyne、中石科技、深圳威铂驰、飞荣达、大图热控、英维克(Inveck)、精研科技、中航光电等 [25][27][29][31][33][35][37][39][43][46][48][50][53][55][57] - 这些供应商提供的液冷方案广泛应用于高性能计算、数据中心和AI平台,以应对高功耗设备的散热需求,其技术特点包括高效散热、高可靠性、模块化设计及定制化能力 [25][27][29][31][33][35][37][39][43][46][48][50][53][55][57]
重磅!英伟达宣布 Rubin量产,液冷架构首次曝光