AIDC液冷行业调研
2026-01-15 09:06

液冷行业调研纪要关键要点总结 一、 纪要涉及的行业与公司 * 行业:数据中心液冷散热行业,特别是针对高功率GPU的散热解决方案[1] * 公司: * 供应商:维谛、台达、宝德、施耐德、科华数据、科硕、保德、曙光、皋兰、森林[3][13][16][20][21] * 客户/技术驱动方:英伟达、互联网企业、数据中心业主[2][4][13] 二、 核心观点与论据 1. 技术驱动与市场启动 * 核心驱动:GPU功耗提升是液冷技术大规模应用的关键驱动因素,当GPU功耗超过1,000瓦时,风冷已无法满足需求[1][2] * 关键节点:1,000瓦是临界点,例如B100 GPU达到此水平,B200则提升至1,200瓦[4] * 市场启动时间:海外市场从2024年到2025年,因NV272机柜或B200芯片大规模落地,液冷技术爆炸性增长[4] * 国内市场滞后:由于政策限制和芯片供应问题(如无法获得BBB300芯片),大部分互联网企业仍采用风冷,预计2026年逐步跟进[4] 2. 主流技术路线与现状 * 绝对主流:冷板式液冷,占比超过90%[1][5] * 主要形态:以单相、非直接接触式(间接诱导形式)为主,占比90%以上[1][5] * 其他技术:微通道和相变技术是重要发展方向,但短期内传统单相冷板液冷仍占主导[1][5] * 浸没式液冷:主要用于科研机构,未大规模应用[5] 3. 应用、成本与性能对比 * 应用场景:主要集中在数据中心高功率GPU机柜中[1][6] * 成本对比: * 风冷系统成本:每千瓦2,500到3,000元[6] * 液冷系统成本:每千瓦3,000到3,500元,比风冷贵10%至20%[1][6] * 性能优势:液体带走热量的能力是空气的3,000倍以上,散热性能明显优于风冷[2][6] * 成本趋势:液冷系统成本逐渐下降,例如某品牌冷却液价格从100多元迅速降至五六十元,缩小了与风冷的成本差距[6] * 其他优势:比风冷更节能(降低PUE)、噪音较小,符合双碳战略目标[1][2] 4. 数据中心电力配置与系统设计 * 电力配置比例转变:从风冷时代的7:3(70% IT负载,30%基础设施)向液冷时代的8:2(80% IT负载,20%基础设施)转变[1][7] * 冗余考虑:需考虑冗余以应对极端情况(如夏季高温),确保供电稳定性[7] * 当前主流模式:国内外数据中心大多采用风冷与液冷混合散热模式[1][7] * 采购成本计算:液冷热管理系统通常按每千瓦计算采购成本,需综合考虑IT负载与CPU配比(因冗余需求,1千瓦IT负载可能对应更高CPU负载)[3][9] * 系统配置:按CDU标准配置,可按照单千瓦的IT设备容量估算(如45千瓦机柜对应45千瓦液冷系统)[10][11] 5. 未来场景与趋势判断 * 推理场景适用性:未来推理场景下,若单机柜功率密度超过50千瓦,液冷热管理更具优势[1][8] * 功率密度下降的影响:即使功率密度下降,若使用高性能芯片(如飞马或Robin),仍可能需要液冷[8] * TCO角度:从总拥有成本考虑,液冷的能效优势使其更受青睐,即使成本接近,用户也可能选择液冷[1][8] * 技术融合趋势:电源和散热系统融合趋势明显,行业巨头通过收购整合资源,提供预制化整体交付方案[3][21][22] * 技术难度:液冷热管理技术(主要涉及物理堆叠和水泵控制)相对电源管理技术(需要半导体元器件和控制技术)更简单[23] 三、 其他重要细节 1. 供应链与市场竞争 * 主要供应商份额:维谛在与英伟达合作方面占据较大份额,过去一两年供货量最大,但2026年预计更多厂商进入,其份额可能下降但绝对值上升[13] * 价格水平:行业内BU层面的CDU等液冷热管理方案价格通常在600到1,000元每千瓦之间[14] * 冷板技术主导:主要由台系公司主导,如科硕以及保德,在美国市场获得较高信任度[16] * 二次管路:是系统重要组成部分,占比不小,通常与CPU解耦,由不同供应商(如专业工程施工公司)提供[15] 2. 系统组成与散热机制 * 散热机制:是多级系统工程,热量从CPU带出,通过循环传递到室外冷却塔等设施,未来可能需要配置小型制冷机以提供更低温度的冷冻水[12] * 冷板设计挑战:散热管路设计复杂,需要与计算机制造商密切合作,合作关系需要高度信任[17][18] 3. 市场空间与规模 * 市场空间巨大:按4万台设备估算,市场规模可达百亿级别[20] * 企业规模:目前国内能卖到5亿以上纯液冷设备的企业已属非常强大,2026年能达到七八亿业绩就已非常强劲[20] * 国际应用:国际市场上使用液冷技术仍较少[20] 4. 产品比例与模型示例 * CPU冷却方式:从2026年开始,CPU产品基本上采用液冷技术[19] * 配置示例:一个8柜双面柜加4个网络柜,总功率约134千瓦,需要两台1,350千瓦的液冷设备(共2,700千瓦),液冷设备与IT负载比例约为2.3比1[19]