市场概况与增长驱动力 - 人工智能竞赛本质上是关于物理基础设施的竞赛,数据中心是支撑AI运行的万亿级实体产业[1] - 全球数据中心资本支出在2024年突破4000亿美元,预计2025年达到5060亿美元,其中IT设备支出4180亿美元,基础设施支出880亿美元[1] - 在AI需求驱动下,数据中心市场预计在2024至2028年间以23%的年复合增长率扩张,2028年将形成超过9000亿美元的庞大市场[1] - 市场增长主要由超大规模云服务商(如AWS、Azure)和托管公司驱动,自2017年以来其总容量已超越企业自建数据中心[7] - 美洲地区占据全球过半的电力容量,美国北弗吉尼亚州以近15%的全球超大规模数据中心容量成为全球最大单一聚集地,中国北京约占7%[9] 数据中心投资回报模型 - 建设1兆瓦容量数据中心的初始投资约为1300万美元,其中土地电力接入成本200万美元,"动力外壳"成本1100万美元[13] - 每兆瓦每年可产生200万至300万美元租金收入,EBITDA利润率通常达到40%至50%的稳健水平[13] - 在20年持有期和项目融资模型中,典型数据中心的内部收益率可达11.0%,对寻求长期稳定现金流的基础设施投资者极具吸引力[13] - 主要运营成本包括电力(美国工业用电均价约每千瓦时0.08美元)、人力(每兆瓦约2名全职员工)和财产税(约物业价值的1%)[13] 技术密度革命与基础设施挑战 - AI芯片单颗功耗指数级飙升,从英伟达Volta架构到Blackwell架构,单颗GPU功耗在数年间增长4倍,引发服务器机架功率密度急剧攀升[15] - AI训练集群中,标准英伟达Hopper机架功耗达35kW,Blackwell机架高达120kW,计划中的Rubin Ultra平台单机架功耗将达到600kW[17] - 全球仅有5%的现有数据中心平均机架密度能够超过30kW,95%的数据中心无法支持当前AI芯片,必须依赖大规模升级改造和新建[18] - 高密度计算带来的散热挑战是整个AI硬件行业不可逆转的共同趋势,云巨头自研ASIC芯片也纷纷宣布必须采用液冷散热[19] 散热系统变革与竞争格局 - 传统风冷系统散热能力物理极限在每机架60-70kW左右,面对上百千瓦AI机架已无能为力,液冷技术正以无可争议姿态回归主流[21] - 行业主流选择是"芯片级直接液冷"技术,通过金属冷板直接覆盖发热芯片,冷却液分配单元市场2024年规模约12亿美元但正经历爆发式增长[22] - 数据中心运营商对正常运行时间的极致追求使其倾向于选择技术成熟的老牌厂商,维谛、施耐德电气、台达电子和nVent被视为第一梯队领导者[23] - 液冷市场有超过30家供应商,但拥有成熟产品线和全球服务网络的老牌厂商具备天然护城河[23] 供电系统架构革命 - AI机架功率向100kW以上迈进,传统低压交流供电架构弊端尽显,一场向高压直流的架构革命已然开启[25] - 高压直流核心优势在于传输相同功率时可用更细线缆,400V系统相比传统208V交流系统可减少52%的铜线重量[28] - 微软、Meta在开放计算项目中率先提出400V直流方案,英伟达为支持未来百万瓦级服务器机架宣布800V直流方案计划于2027年部署[27] - 英伟达已明确表示其800V直流架构将与维谛、伊顿等行业领导者合作开发,印证在位者在行业标准变革中依然占据核心地位[28] 供应链价值分布与市场规模 - AI数据中心单位建设成本比传统数据中心高33%,从每兆瓦3900万美元跃升至5200万美元,增长来自更昂贵AI服务器和基础设施升级[30] - 散热系统是约100亿美元的市场,维谛是市场份额领导者,江森自控、开利、特灵等传统HVAC巨头也是重要参与者[30] - 供电系统是约180亿美元的市场,施耐德电气占据领先地位,产品线覆盖不间断电源、开关设备、母线槽等,伊顿、ABB、西门子同样是核心玩家[32] - 柴油发电机设备市场规模2024年达到约72亿美元,全球领导者是康明斯,是确保数据中心最高等级可靠性的最后一道防线[36] - 全球服务器市场规模2024年约2800亿美元,其中AI服务器在金额上已占据半壁江山,网络设备市场规模约360亿美元,主要由思科和Arista主导[39]
“AI闭环”假期刷屏!一文读懂北美数据中心供应链