文章核心观点 随着人工智能、云计算与高性能计算的发展,全球算力需求爆发式增长,数据中心面临严峻的散热挑战。传统风冷技术已难以满足芯片功率密度持续提升的需求,液冷技术凭借高能效、低功耗等优势,正从“可选项”加速演变为“必选项”。国家政策对数据中心PUE要求的持续收紧,进一步推动液冷成为绿色算力建设的必然路径。伴随英伟达等芯片巨头产品迭代与供应链开放,液冷单机价值量持续提升,为国产供应链带来历史性入局机遇。预计2026年全球液冷市场规模将突破千亿元,一场由技术驱动、政策助推、产业链协同的液冷革命已全面开启 [2]。 一、液冷技术:解决数据中心散热压力的必由之路 - 液冷技术是应对高功率散热挑战的关键:液冷利用液体高导热、高热容特性替代空气散热,具有低能耗、高散热、低噪声、低TCO等优势,是解决数据中心散热压力和节能挑战的必由之路 [6]。 - 核心优势显著:1) 低能耗:传热路径短、换热效率高、制冷能效高。2) 高散热:以2MW机房为例,液冷散热能力是风冷的4-9倍。3) 低噪声:能降低冷却风机转速或采用无风机设计。4) 低TCO:液冷数据中心PUE可降至1.2以下,每年节省大量电费 [13]。 - 高度适配服务器功率密度的飙升:为满足AI算力需求,芯片功耗与机柜功率密度急剧攀升。以英伟达为例,GPU热设计功耗已从B200的700W发展到GB300的1400W,未来VR300潜在达4000W;机柜功率从GB200 NVL72的约140kW,到GB300 NVL72的约180kW,再到Rubin架构规划功率高达370kW乃至600kW,传统风冷已触及物理天花板 [14][15]。 - 从“可选项”演变为“必选项”:风冷散热一般适用于20kW/机柜以下,20kW以上液冷优势明显。面对急剧攀升的功率密度,液冷已成为保障系统可靠性的关键基础设施 [18]。 - 符合国家PUE要求的解决方案:PUE是衡量数据中心能效的核心指标,降低PUE关键在于减少除IT设备外的其他设备能耗,其中制冷系统能耗占比最高。国家持续收紧数据中心PUE要求,例如政策要求2025年起新建大型数据中心PUE降到1.3以下,并鼓励采用液冷等节能技术 [21][22]。 - 降低PUE的关键在于压缩制冷系统能耗:制冷系统约占数据中心能耗的40%。以PUE为1.5的数据中心为例,制冷系统能耗占比超过27%。行业正通过“自然冷”与“液冷”两大技术路径协同推进PUE优化,液冷技术可实现PUE小于1.25的极佳节能效果 [25]。 - 全生命周期成本更低,经济效益显著:液冷方案虽然初期投资增加,但运行能耗与电费大幅下降。冷板式液冷相比风冷节能率高达76%;浸没式液冷相比风冷节能率高达93%以上。规模为10MW的数据中心,液冷方案预计2.2年左右可回收增加的基础设施初投资。以国内某液冷算力中心为例,TCO降低30%,交付效率提升100% [26]。 - 技术分类与主流方案:根据冷却液是否与热器件接触,液冷可分为直接接触式(如浸没式、喷淋式)和间接接触式(如冷板式)。其中,单相冷板式液冷因技术成熟度高、系统稳定性强、改造成本可控,在未来较长时间内仍将是应用的主流方案。浸没式液冷PUE能降至1.13以下,适用于高密度计算场景,但受制于初始投资和运维习惯 [30][34][37]。 二、液冷行业:伴随芯片升级液冷价值量提升,国产链加速入局 - AIDC价值量构成:在AI数据中心中,AI服务器(主要是GPU)价值量占比约65%,冷却系统和电源设备合计占比约3-5% [79]。 - 液冷价值量随芯片升级快速提升:以英伟达GB200到GB300为例,液冷方案从“集成式”大冷板(1块覆盖1CPU+2GPU)变为“独立式”专属冷板(每GPU一块),冷板数量从36块增至108块。测算显示,机架液冷模块价值量从约7.46万元增长至约9.5万元,增幅超过20% [83][84][85][86]。 - 市场规模预测:预计到2026年,ASIC用液冷系统市场规模将达353亿元,英伟达NVL72液冷系统市场规模将达697亿元。其中,CDU市场规模分别约为88亿元和174亿元 [88][90]。 - 英伟达开放供应链,国产链加速入局:1) 交付逻辑演进:从A50/H100阶段的“卖卡+指定独供”模式,到GB200/GB300阶段,英伟达将重心前移至机柜内布局,对柜外环节给出参考设计,由ODM/OEM主导选型集成,外围生态空间扩大。2) 商业模式驱动:产品定位转向“精装标准化”,允许ODM在柜外侧进行多供方比选。3) 台系ODM/OEM角色抬升:成为一次+二次侧系统集成者,为本土与高性价比供应商带来增量机会。4) 国产供应链现状与展望:目前国产厂商多作为二三级零部件和材料供应商,但随着行业成熟和终端CSP注重性价比,国产头部厂商有望作为一级供应商直接进入英伟达体系 [91][92][93][94][98]。 三、Rubin架构展望:微通道盖板&相变冷板为可选方案 - 单相冷板无法适用于Rubin架构:Rubin架构GPU热设计功耗达2300W,整柜功率约200kW,而单相冷板设计上限为150kW/柜,需要引入新方案 [102]。 - 可行方案一:相变冷板:通过液体工质在冷板内发生相变(液态到气态)吸收大量潜热实现高效散热,介质以氟化液为主,适配单柜300kW+场景 [103]。 - 可行方案二:微通道盖板:将高度密集的微尺度冷却液通道网络直接置于冷板基板下方,极大增加换热面积和效率,适用于高热流密度场景 [105]。 - 后续方案研判:微通道盖板有较大概率成为Rubin架构选择方案。因为后续Rubin Ultra方案单个GPU功耗可能达4000+W,整柜功率超600kW,相变冷板将不再适用,直接采用微通道盖板更有利于后续迭代 [106]。 - 微通道盖板VS传统冷板:微通道盖板在传热系数、热阻、通道密度、散热均匀性上大幅优于传统宏观通道冷板,但制造复杂性、成本、流体纯度要求及系统控制难度也大幅提升 [111][112]。 四、行业相关公司介绍 - 英维克:国内AI液冷领域龙头,具备“冷板设计—CDU—冷却工质”全链条能力。2025年前三季度营收40.26亿元,同比增长40.19%;归母净利润3.99亿元,同比增长13.13%。海外市场取得突破,冷板、快接头、CDU等产品通过英特尔验证,并被列入英伟达MGX生态系统合作伙伴,为谷歌提供CDU产品 [118][125]。 - 宏盛股份:板翅式换热器领军者,产品用于空气压缩机、工程机械等领域。2025年前三季度营收5.54亿元,同比增长6.73%;归母净利润0.64亿元,同比增长34.78%。公司通过合资公司切入服务器ODM厂商广达的供应链体系,有望受益于AI服务器液冷需求 [126][131]。 - 申菱环境:国内专用空调领导者,业务涵盖数据服务空调等。2025年前三季度营收25.08亿元,同比增长26.84%;归母净利润1.50亿元,同比增长5.05%。公司自2011年布局液冷技术,可提供从一次侧干冷器到二次侧CDU、Manifold等全系列液冷产品,与国内核心公司合作紧密 [132][138][139]。
液冷迎来千亿拐点:AI算力驱动热管理升级,国产链迎历史性入局机遇