Workflow
数据中心热管理
icon
搜索文档
藏在算力背后的 “降温术”:数据中心热管理全解析
DT新材料· 2025-10-21 00:05
文章核心观点 - AI计算密度持续攀升,散热问题已成为智能计算中心的核心挑战,有效热管控对数据中心稳定运行与效率至关重要[5] - 为应对高功率密度挑战,散热技术需从风冷向液冷演进,液冷技术凭借更高的热传导效率和精准散热能力,成为未来数据中心散热的重点发展方向[6][8][24][25] 散热技术演进:从风冷到液冷 - 当前主流散热技术分为风冷和液冷两大体系,风冷适用于机柜功率密度较低场景,液冷因冷却介质和方式不同导致移热速率存在显著差异[6] - 随着机柜功率密度提升,散热技术需大幅提升移热速率以满足高功率密度需求[8] 风冷技术 - 风冷分为自然风冷与强制风冷两类,自然风冷因制冷性能欠佳已被淘汰,强制风冷是当前数据中心应用最广泛的冷却方式[9] - 强制风冷主要有空调制冷和新风制冷两种方式,空调制冷技术成熟但冷却效率偏低,仅能满足中小功率IT设备需求[9][11] - 新风制冷以外部空气作为冷却介质,在温带或寒带地区可大幅节省制冷成本,技术发展迅猛已能实现全年无需空调的温度控制[12] 液冷技术概述 - 液冷技术利用高导热性能液体介质替代空气进行散热,导热效率更高,特别适用于高密度、大功率的数据中心场景[13] - 根据液体与发热部件接触方式,液冷技术可分为间接液冷和直接液冷两类[13] 间接液冷 - 间接液冷指液体与发热部件通过导体间接接触的冷却方式,分为冷板冷却和热管冷却[14] - 冷板冷却是当前液冷数据中心应用最广泛的散热方式,采用液冷与风冷相结合方案,最常用冷却介质是水[15] 直接液冷 - 直接液冷指采用绝缘液体直接与部件接触带走热量的冷却方式,主要有单相浸没式液冷、两相浸没式液冷以及单相喷淋液冷等技术[17] - 单相浸没式液冷通过冷却液自身升温过程中的显热实现热量交换,可适配功率最高达100kW/r的服务器机柜[19] - 两相浸没式液冷通过冷却工质沸腾相变带走热量,技术难度较大,可将芯片温度稳定控制在85℃以下,单机柜功率密度可达110kW/r以上[20] - 单相喷淋液冷属于芯片级换热,冷却效率较高但技术难度大,对机箱密封性要求高,目前尚未大规模应用[21] 液冷市场现状与趋势 - 单相冷板式液冷在液冷数据中心应用占比超90%,是当前及未来一段时间的主流方案[23] - 英伟达GB200算力模组单组散热功率达5400W,NVL72整机柜总功率飙升至132kW,远超传统风冷技术20kW/柜的散热极限[24] - 2023年全球智能算力规模达875EFLOPS,首次超越基础算力,中国占比39%,算力建设向AI领域倾斜加速液冷技术规模化落地[24] - 中国"东数西算"战略要求2025年底新建大型数据中心PUE需降至1.25以下,国家枢纽节点低于1.2,三大运营商提出2025年液冷应用率超50%的目标[24] 液冷技术经济性 - AI训练场景中约30%能源成本用于散热,传统数据中心PUE普遍在1.6-2.0之间[25] - 采用液冷的智算中心PUE可降至1.111,一座中大型数据中心每年可节省数千万元电费[25]