Power Usage Effectiveness (PUE)
搜索文档
“冷却”之于数据中心为何如此重要?
高工锂电· 2026-01-27 19:21
数据中心能耗与PUE指标 - 数据中心能耗与冷却紧密相关,芯片运算产生热量,若散热不佳将导致性能下降[3] - PUE是衡量数据中心运行效率的关键指标,为数据中心总能耗与IT设备能耗之比,数值越小效率越高[3] - 目前行业普遍要求PUE < 1.3,并逼近1.2,当PUE为1.3时,每消耗1.5度电仅有1度用于芯片计算,其余0.5度用于制冷等基础设施[3] - 冷却环节是数据中心的耗电大户,发展初期PUE > 2是常态,冷却环节是PUE走高的主因[4] 降低PUE的两大路径 - 路径一是充分利用外部冷却资源,如利用高海拔、高纬度地区的自然冷空气实现制冷[5] - 例如,Kolos公司在挪威巴朗恩建设的数据中心,利用当地寒冷气候和水电资源,预计到2027年IT功率达1000MW,可削减60%能源成本[6] - 路径二是数据中心内部的高效制冷[5] 内部制冷技术方案演进 - 目前主流内部制冷方案为风冷和液冷[8] - 随着数据中心单机功率提升,液冷方案因散热能力更强,正成为下一代主流方案,渗透率已从10%提升至30%[9] - 液冷技术主要包括冷板式液冷(占比90%以上)、浸没式液冷和喷淋式液冷三大路径[10] - 马斯克指出,传统风冷效率已赶不上芯片数量与算力的提升,AI数据中心本质是自带发电站的巨型液冷散热器[11] 行业未来趋势与相关企业 - 未来随着AI大模型与算力需求爆发,液冷将逐渐取代风冷,成为降低数据中心PUE的主要抓手[12] - 相关企业可分为几大派别:专攻数据中心冷却的英维克、佳力图;工业制冷厂商如同飞、高澜;传统空调风机企业如申菱环境、奥特佳、松芝等[10]
The AI Boom Is Pushing Data Centers Past the Thermal Wall
Yahoo Finance· 2025-12-15 02:00
市场增长与驱动因素 - 全球数据中心冷却市场规模预计将从2024年的142.1亿美元增长至2033年的341.2亿美元,期间年复合增长率达10.3% [2] - 增长由高性能计算和人工智能工作负载的快速采用驱动,推动行业超越传统风冷技术,转向能够管理极端热密度的液体和混合冷却架构 [3] - 超大规模设施的快速扩张是主要催化剂,加速了对能够处理下一代芯片热输出的直触芯片和浸没式冷却技术的需求 [5] 技术演进与行业挑战 - 当前超大规模设施的机柜功率密度正超过20至30千瓦,部分AI集群甚至超过100千瓦,在此水平下风冷效率低下且经济上不可行 [5] - 用于训练大语言模型的图形处理器等最新一代硅芯片产生的热量远超风冷系统的能力上限 [4] - 技术必要性导致市场出现分化,老旧设施改造困难,而新建设施越来越多地采用液体优先的基础设施设计 [6] 能源消耗与效率要求 - 数据中心全球电力消耗预计到2026年将超过1000太瓦时,约相当于日本的总用电量;到2030年可能达到2200太瓦时,约相当于印度的用电量 [7] - 冷却系统通常占数据中心总能耗的近40% [7] - 电力使用效率等能效指标已成为董事会层面的强制性要求,北美和欧洲的监管趋势正在影响投资决策 [8]