Workflow
全球AI争霸背后的电力较量:能源焦虑与联想液冷的爆发式增长

文章核心观点 - AI竞赛的核心瓶颈已从芯片供应转向电力供应和散热效率,电力成为决定AI竞争力的关键变量 [1][4][5] - AI推理需求的指数级增长导致能源消耗剧增,电力成本成为科技企业的核心运营支出和生存项 [2][3][4] - 为应对电力瓶颈,中美科技巨头采取不同策略:美国企业倾向于自建发电站实现能源自主,中国则依托政策和大规模清洁能源项目 [5][6][7] - 液冷散热技术因高效导热成为降低数据中心能耗的刚需,并催生新的供应链投资热点,相关市场正经历高速增长 [9][10][11][14] AI能源需求与挑战 - AI能耗重心从集中式模型训练转向分布式推理,单个查询耗电0.3至1瓦时,但每日数十亿次请求导致累积能耗呈指数级增长 [2] - 预计到2026年,全球AI推理需求将达到拍瓦时级别(1拍瓦时=10亿度电)[2] - 到2030年,全球AI数据中心需额外增加96吉瓦电力容量,相当于瑞典年发电总量或100座美国标准核电站输出 [2] - 一个电力需求为1吉瓦的数据中心若全年满负荷运行,年耗电量达86.6亿度,电力成本高达7亿至8.76亿美元 [3] - 未来将出现电力需求达10吉瓦的超大型数据中心,电力成本增长惊人 [3] - 数据中心电力需求到2030年将增长165%,AI推理能耗在运营支出中占比已超过20% [4] 中美能源策略对比 - 美国面临电力短缺,老旧设施改造需等待7年以上,新建天然气发电厂项目需等待至下一个十年 [5] - 美国科技巨头采取“数据中心+自备电站”一体化园区模式,以掌握能源自主权 [5] - 马斯克xAI公司建设“巨像2号”数据中心,部署55万至100万颗AI芯片,需1吉瓦电力,为此在邻近州自建天然气发电厂 [6] - OpenAI、软银和甲骨文联合推进“星门”项目,计划投入5000亿美元建设多座巨型数据中心,已在德州启动10个数据中心建设 [6] - 中国通过政策引导和清洁能源优势解决问题,雅鲁藏布江超级电力工程总投资1.2万亿元,装机容量6000万千瓦(相当于3个三峡电站),年发电量3000亿度 [7] - 该中国电力工程可满足全国AI算力增长需求的75%以上,电力成本低至0.1-0.3元/度,较美国同类算力成本降低60% [7] 液冷技术的重要性与市场 - AI数据中心电力消耗40%来自计算,40%来自冷却,20%来自其他IT设备 [9] - 芯片热流密度超过50W/cm²,局部热点达150W/cm²,空气冷却已无法满足需求,液冷成为必需品 [10] - 液体热容量是空气的4倍以上,液冷技术可将热流密度限制推高至300W/cm²以上 [11] - 全球数据中心冷却市场预计从2025年的187.8亿美元增长到2032年的424.8亿美元,复合年增长率为12.4% [11] - 全球服务器冷却市场在2025-2027年预计将实现111%/77%/26的逐年增长,2027年规模达176亿美元 [14] 液冷技术提供商案例(联想) - 联想海神液冷技术营收在25/26财年Q2同比增长154%(Q1增速为68%)[13] - 联想ISG部门营收近300亿元人民币,同比增长24%,AI服务器收入实现高双位数增长 [13] - 联想“海神”液冷解决方案系统功耗比传统风冷直降40%,PUE值可降至1.1以下 [13] - 新发布“双循环”相变浸没制冷系统PUE可低至1.035,散热能力较传统方案翻倍 [13] - 截至2025年三季度,联想海神液冷系统全球部署量已超8万套,覆盖AI、超算、金融、汽车等领域 [14] - 联想参与了国内《数据中心液冷系统冷却液体技术要求和测试方法》等行业标准制定 [14]