UQD

搜索文档
中金 | AI“探电”(八):景气度+算力升级+技术迭代多轮驱动,全球液冷产业链有望加速放量
中金点睛· 2025-08-07 07:45
核心观点 - AI发展驱动芯片功耗大幅增加,散热方案向液冷升级,数据中心原有的风冷散热无法支撑高算力密度及能效管控下的散热需求 [2] - 海外算力资本开支持续上修,液冷处在高景气度的通道中,同时英伟达算力芯片持续迭代,功耗提升,驱动液冷技术方案升级迭代 [2] - 全球液冷市场规模有望从2024年的19.6亿美元增长至2032年的211.4亿美元,2025-2032年CAGR达33.2% [3] - 液冷决策链或从集中逐步走向分散,市场格局仍有变化的可能,国产液冷链有望借新技术窗口期以及决策链分散化切入海外配套 [3] - 国产算力芯片突破,液冷在国内市场亦有望迎来加速渗透 [2] AI发展驱动芯片功耗提升 - 生成式AI浪潮驱动算力需求持续攀升,服务器芯片功耗不断提升,从通用服务器CPU的200W-300W提升至AI算力芯片的700W-1400W [6] - 英伟达H100及H200功耗为700W,Blackwell架构的GB200单芯片最大功耗达1200W,GB300进一步提升至1400W [6] - 机柜功耗从42kW提升至132kW,传统风冷散热技术无法支撑高算力密度下的散热需求 [6][7] 全球数据中心能效管控趋严 - 国内规定到2025年底,全国数据中心PUE降至1.5以下,新建及改扩建大型和超大型数据中心PUE降至1.25以内 [8] - 美国联邦数据中心需在2025年前达到PUE<=1.5,新建项目需<=1.4,加州对PUE<1.2的数据中心提供"能效税优",可抵免30%税收 [8] - 欧盟自2025年1月起强制测量并公开PUE数据,2026年7月起现有数据中心需满足PUE<1.5,2030年进一步降至<1.3 [9] 数据中心散热方案向液冷升级 - 芯片级散热方案从传统的热管(≤200W)、VC(≤500W)、3DVC(≤1000W)升级至冷板式液冷(≥1500W),液体导热系数是空气的20倍 [10] - 机柜级散热方案从传统4-6kW风冷升级至液冷,英伟达GB200、GB300 NVL72机柜功耗高达120kW、132kW [10] - 液冷架构分为一次侧(热量传输过程)和二次侧(IT设备冷却),二次侧包含CDU、液冷机柜及内部的液冷组件等 [11] 液冷技术方案升级 - 英伟达GB300液冷方案在二次侧液冷板、UQD、CDU等技术方案上变化较大,冷板数量翻倍、冷管线密度提升30%,快接头提升至14对 [17] - GB300 CDU从Liquid to Air(L2A)转向Liquid to Liquid(L2L),冷却能力从60kW提升至2MW,功耗从4%降至1% [20] - 一次侧在高算力、高能效需求下,磁悬浮压缩机渗透率有望提升,较传统有油系统节能45-50%,运维成本降70% [21] 液冷市场空间 - 基于英伟达液冷需求测算,2025年液冷板、UQD、manifold、CDU需求分别为59.0亿元、37.0亿元、12.9亿元、90.3亿元 [38] - 2026年液冷板、UQD、manifold、CDU需求分别为115.7亿元、65.9亿元、18.8亿元、124.9亿元,冷板和CDU的空间较大 [38] 液冷产业链格局 - 全球液冷技术提供商市场CR5占比约40%,单一企业份额不超过15%,市场偏分散 [31] - 细分环节主要由外资厂商及台系厂商主导,CDU主要份额为维谛、施耐德电子、nVent,液冷板及管路为Cooler master、AVC、宝德Byod [34] - 决策链从主要由CSP(终端用户)决定逐步分散化,ODM厂商如富士康、鸿海逐步开始自主开发设计液冷方案 [35]