行业发展趋势 - AI行业正从生成式AI时代跨入推理式AI时代和智能体AI时代 推理以及渠道训练成为行业增长的核心计算需求 [1][2] - 过去两年 AI计算需求增加了大约100万倍 [2] - 英伟达将2025年定义为“推理年” 旨在优化AI推理全流程 降低客户AI基础设施成本 [2] 公司收入与产品预期 - 英伟达对Blackwell和Rubin旗舰芯片产品线在2027年前的数据中心营收展望乐观 预计总额将超过1万亿美元 较2025年GTC大会披露的2026年前5000亿美元预期显著增长 [3] - 正式发布Vera Rubin全栈AI算力平台系统 包含Vera CPU、Rubin GPU、Groq 3 LPU等七款计算及互联芯片 涵盖五款机架 [4] - Vera Rubin AI算力平台系统的发布 让算力在10年内提升了4000万倍 [5] 产能与部署进展 - 微软Azure已部署首台Vera Rubin机架 [5] - 英伟达供应链已实现每周数千台的产能 每月可支撑多GW级AI工厂建设 同时并行量产Vera Rubin与GB 300机架 [5] - Vera Rubin部署效率大幅提升 从传统2天安装缩短至2小时 预计将显著提升可维护性 [8] 电源技术进展 - 根据Vera Rubin NVL72参考设计 预计将采用4组Powershelf 每组功率为110KW 由6个18.3KW电源组成 合计供电功率为440KW [6] - 对比GB200/GB300 NVL72的264KW供电功率提升达60%以上 预计相关电源厂商单机柜价值量有望得到较大提升 [6] - 英伟达称将全面普及800V高压直流供电、CPO光互联与高密度PCB 推动数据中心PUE降至1.1以下 [6] 液冷技术进展 - Vera Rubin采用100%液冷设计 Tray内无缆化设计 采用45℃热水冷却 可减少机械冷却中的压缩步骤 带来显著的能源效率提升并降低冷却成本 [8] - 更高的热水温度冷却需要更高的冷却流量来带走相同的热量 预计配套Vera Rubin的将是能支持更大流量的液冷系统以及更新的冷却架构 有望持续推动液冷解决方案及零部件厂商技术升级需求 [1][8] - 此次发布的Vera Rubin平台采用了较为传统的液冷方案 后续随着Rubin Ultra、Feynman等更高功率芯片的发布 微通道、微流控以及金刚石散热等新技术方向值得持续期待 [8] AI工厂核心指标 - 吞吐效率及交互性/推理速度是AI工厂的核心指标 token成为AI工厂的核心生产资料 [2] - 吞吐效率(token/watt)的核心是功率效率 交互性/推理速度即Token的生成速度决定AI的“智能程度” [2]
中国银河证券:柜内电源功率提升 推动液冷及零部件厂商技术升级