AI数据中心电力需求与功率半导体成本增长 - 随着AI数据中心计算需求的增长,电力需求随之增加,预计英伟达Feynman架构的电力需求将比Blackwell高出17倍[1] - 英伟达Feynman GPU具备多项突破性功能,计划于2028年在Rubin之后发布[1] - 摩根士丹利研究图表显示,英伟达Blackwell B200机架的总功率半导体成本估计约为11,234美元,GB200增加约4,000美元,GB300再增加3,500美元,整个Blackwell代功率半导体成本高达17,761美元[1] - 随着机架向Rubin和Feynman等未来芯片演进,仅电力成本就将大幅上升[1] 未来芯片代际的功率半导体成本跃升 - 预计今年晚些时候发布的Rubin,其功率半导体成本估计将超过33,000美元,是Blackwell GB200的3倍[2] - 英伟达Rubin Ultra机架的电力系统成本将是Rubin的3倍,估计约为95,000美元[2] - Feynman机架的功率半导体含量将是Rubin Ultra的两倍,跃升至惊人的191,000美元以上,比Blackwell增加了17倍[2] 功率半导体含量构成与新技术架构 - 从数据细分来看,PCS(电源转换系统)和VRM(电压调节模块)第二级占据了半导体含量的主要部分,份额分别为27%和26%[4] - 紧随其后的是为机架供电的PSU(电源单元),占19%的份额[4] - 侧向VRM占15%的份额,而IBC(第一级中间总线转换器)和BBU(电池备份单元)/ UPS(不间断电源)将占据4-5%的比例[4] - 其余个位数份额由交换机、网卡和电子熔断器占据[4] - 英伟达已宣布未来AI数据中心将转向800 VDC(直流)架构,以取代传统的48V/54V标准,旨在消除瓶颈,减少电流、铜的使用量和电缆体积,同时提供更安全且可扩展的基础设施设计[4] - 800 VDC系统紧凑且最适合下一代配电需求,可减少转换和布线体积,并将分配损耗降至最低[4] 现有设计的瓶颈与800 VDC系统的优势 - 现有设计瓶颈包括低效转换:电源链中重复的AC/DC转换不仅能源效率低,而且增加了故障点[5] - 空间限制:现有的英伟达GB200 NVL72或GB300 NVL72拥有多达八个电源机架,在兆瓦规模下,如果使用相同的54 VDC配电,Kyber的电源机架将消耗高达64 U的机架空间,导致没有空间放置计算单元[7] - 铜负载过重:在单个1 MW机架中使用54 VDC要求高达200 kg的铜母线,在单个1吉瓦数据中心中,仅机架母线就需要高达200,000 kg的铜,现有配电技术在未来的GW级数据中心中不可持续[7] - 800 VDC系统主要优势包括高效率与低损耗:减少了功率转换步骤,从而最大限度地减少能量损失[7] - 缩减基础设施占地面积:较低的电流允许使用更细、更轻的电缆和更小的电源组件,从而腾出宝贵的IT机架空间以放置更多计算能力[7] - 由先进功率电子技术驱动:该系统大量使用氮化镓和碳化硅半导体,这些材料能够实现高效的高压开关[7] - 安全性与稳定性:800V DC架构包含专用组件,如固态继电器、高压热插拔设备和隔离传感器,以维持安全性[7] 800 VDC架构的引入计划与行业影响 - 800VDC将首先引入英伟达的Kyber机架,预计于2027年推出,并将配置在密集的机架中,搭载576颗Rubin Ultra芯片组成的Rubin Ultra AI GPU系列,采用全液冷600kW解决方案[6] - 在GTC 2025上,英伟达展示了一个800 V边柜,用于为单个Kyber机架中的576颗Rubin Ultra GPU供电[7] - 对800VDC架构依赖的增加以及电源组件的大幅增长,将引发VRM制造商和电源供应商的强烈反应,他们将扩大生产规模,以满足下一代数据中心日益增长的需求[9]
19.1万美元,Feynman机架电力成本飙升17倍