数据中心散热
搜索文档
众捷汽车:已向Boyd供应数据中心液冷产品
每日经济新闻· 2025-12-16 16:01
每经AI快讯,12月16日,有投资者问众捷汽车(301560),Boyd(宝德)是英伟达官方认证的全系列液冷 部件散热系统的核心供应商,请问Boyd(宝德)是不是公司的客户?众捷汽车在互动平台表示,公司已成 功与全球热管理解决方案领导者Boyd宝德集团建立合作,给Boyd北美和欧洲正在供应数据中心液冷的 相关产品。 ...
液冷:GPU+ASIC渗透加速,订单能见度到2028年
2025-12-08 08:41
涉及的行业与公司 * **行业**:数据中心液冷散热行业[1] * **公司**: * **上游芯片/服务器厂商**:英伟达 (NVIDIA)、AMD、亚马逊 (AWS)、谷歌 (Google)[1][2][4][5] * **液冷零部件供应商 (台系)**:齐鸿 (奇宏)、双鸿、Coolmaster[3][8] * **液冷系统供应商**:维谛 (Vertiv)、宝德[3][8] * **国内相关企业**:英维克、曙光数创、高澜股份[3][9] 核心观点与论据 * **液冷渗透率加速提升**:预计2025年数据中心液冷渗透率将从2024年的14%大幅上升至33%[2] 英伟达GB200服务器液冷渗透率预计高达75%,GB300接近100%[1][2] AMD和亚马逊新机架也提供液冷方案,预示2026年渗透率将显著提升[1][2] * **液冷成为高功耗芯片的必然选择**:芯片散热方案选择依据热流密度和单机柜功耗,风冷上限为每平方厘米1,000瓦和单机柜100千瓦[1][4] 随着芯片功耗提高,液冷成为必选项[4] * **技术持续迭代**:英伟达正研发微通道液冷技术以提高散热效率,预计2026年第四季度供应链成熟[1][5] 谷歌已采用成熟的分流冷板和裸芯片冷却技术,通过主动流量控制和N+1冗余架构实现精准可靠的散热管理[5] * **市场规模与增长预测**: * **GPU市场**:预计2026年英伟达GPU机柜出货量10-12万个,按单机柜8.4万美元计算,市场规模达100亿美元[1][6] 以2024年65亿美元为基准,25-26年年均复合增长率约30%[6] * **ASIC市场**:预计2026年ASIC服务器出货量800万颗,在40%渗透率下对应市场空间约39亿美元[1][7] * **整体市场**:GPU加ASIC服务器市场规模有望超过150亿美元,比此前仅GPU的测算提高了30%,25-26年复合增长率约55%[1][7] * **产业链需求旺盛,供应商受益**:市场扩张带动产业链零部件需求增长,主要台系供应商已在东南亚扩产[3][8] 下游需求旺盛,例如奇宏连续9个月营收创新高,双鸿增长强劲[3][8] * **国内企业迎来发展机遇**:国内企业如英维克已进入英伟达、谷歌供应链,并获得英伟达2026年订单指引,包括快接头3-4%份额(对应收入5亿元)和CDU贡献2亿元收入[9] 曙光数创、高澜股份等公司在多领域布局,订单落地良好,有望提高市占率[3][9] 其他重要内容 * **成本因素影响方案选择**:并非超过散热上限就必须选择液冷,用户可能出于成本考虑选择次优方案(如风冷),例如AMD和亚马逊同时发布了风冷和液冷机架,风冷机架搭载的芯片数明显少于液冷机架[1][4] * **主流配置**:液冷CDU的部署方式中,Sidecar是主流配置[3][8] * **技术适应AI负载特点**:谷歌从第四代TPU开始,将其液冷热管理系统与AI训练过程中负载波动大的特点相适应[5]
液冷迎来千亿拐点:AI算力驱动热管理升级,国产链迎历史性入局机遇
材料汇· 2025-12-07 23:30
文章核心观点 随着人工智能、云计算与高性能计算的发展,全球算力需求爆发式增长,数据中心面临严峻的散热挑战。传统风冷技术已难以满足芯片功率密度持续提升的需求,液冷技术凭借高能效、低功耗等优势,正从“可选项”加速演变为“必选项”。国家政策对数据中心PUE要求的持续收紧,进一步推动液冷成为绿色算力建设的必然路径。伴随英伟达等芯片巨头产品迭代与供应链开放,液冷单机价值量持续提升,为国产供应链带来历史性入局机遇。预计2026年全球液冷市场规模将突破千亿元,一场由技术驱动、政策助推、产业链协同的液冷革命已全面开启 [2]。 一、液冷技术:解决数据中心散热压力的必由之路 - **液冷技术是应对高功率散热挑战的关键**:液冷利用液体高导热、高热容特性替代空气散热,具有低能耗、高散热、低噪声、低TCO等优势,是解决数据中心散热压力和节能挑战的必由之路 [6]。 - **核心优势显著**:1) **低能耗**:传热路径短、换热效率高、制冷能效高。2) **高散热**:以2MW机房为例,液冷散热能力是风冷的4-9倍。3) **低噪声**:能降低冷却风机转速或采用无风机设计。4) **低TCO**:液冷数据中心PUE可降至1.2以下,每年节省大量电费 [13]。 - **高度适配服务器功率密度的飙升**:为满足AI算力需求,芯片功耗与机柜功率密度急剧攀升。以英伟达为例,GPU热设计功耗已从B200的700W发展到GB300的1400W,未来VR300潜在达4000W;机柜功率从GB200 NVL72的约140kW,到GB300 NVL72的约180kW,再到Rubin架构规划功率高达370kW乃至600kW,传统风冷已触及物理天花板 [14][15]。 - **从“可选项”演变为“必选项”**:风冷散热一般适用于20kW/机柜以下,20kW以上液冷优势明显。面对急剧攀升的功率密度,液冷已成为保障系统可靠性的关键基础设施 [18]。 - **符合国家PUE要求的解决方案**:PUE是衡量数据中心能效的核心指标,降低PUE关键在于减少除IT设备外的其他设备能耗,其中制冷系统能耗占比最高。国家持续收紧数据中心PUE要求,例如政策要求2025年起新建大型数据中心PUE降到1.3以下,并鼓励采用液冷等节能技术 [21][22]。 - **降低PUE的关键在于压缩制冷系统能耗**:制冷系统约占数据中心能耗的40%。以PUE为1.5的数据中心为例,制冷系统能耗占比超过27%。行业正通过“自然冷”与“液冷”两大技术路径协同推进PUE优化,液冷技术可实现PUE小于1.25的极佳节能效果 [25]。 - **全生命周期成本更低,经济效益显著**:液冷方案虽然初期投资增加,但运行能耗与电费大幅下降。冷板式液冷相比风冷节能率高达76%;浸没式液冷相比风冷节能率高达93%以上。规模为10MW的数据中心,液冷方案预计2.2年左右可回收增加的基础设施初投资。以国内某液冷算力中心为例,TCO降低30%,交付效率提升100% [26]。 - **技术分类与主流方案**:根据冷却液是否与热器件接触,液冷可分为直接接触式(如浸没式、喷淋式)和间接接触式(如冷板式)。其中,**单相冷板式液冷**因技术成熟度高、系统稳定性强、改造成本可控,在未来较长时间内仍将是应用的主流方案。浸没式液冷PUE能降至1.13以下,适用于高密度计算场景,但受制于初始投资和运维习惯 [30][34][37]。 二、液冷行业:伴随芯片升级液冷价值量提升,国产链加速入局 - **AIDC价值量构成**:在AI数据中心中,AI服务器(主要是GPU)价值量占比约65%,冷却系统和电源设备合计占比约3-5% [79]。 - **液冷价值量随芯片升级快速提升**:以英伟达GB200到GB300为例,液冷方案从“集成式”大冷板(1块覆盖1CPU+2GPU)变为“独立式”专属冷板(每GPU一块),冷板数量从36块增至108块。测算显示,机架液冷模块价值量从约7.46万元增长至约9.5万元,增幅超过20% [83][84][85][86]。 - **市场规模预测**:预计到2026年,ASIC用液冷系统市场规模将达353亿元,英伟达NVL72液冷系统市场规模将达697亿元。其中,CDU市场规模分别约为88亿元和174亿元 [88][90]。 - **英伟达开放供应链,国产链加速入局**:1) **交付逻辑演进**:从A50/H100阶段的“卖卡+指定独供”模式,到GB200/GB300阶段,英伟达将重心前移至机柜内布局,对柜外环节给出参考设计,由ODM/OEM主导选型集成,外围生态空间扩大。2) **商业模式驱动**:产品定位转向“精装标准化”,允许ODM在柜外侧进行多供方比选。3) **台系ODM/OEM角色抬升**:成为一次+二次侧系统集成者,为本土与高性价比供应商带来增量机会。4) **国产供应链现状与展望**:目前国产厂商多作为二三级零部件和材料供应商,但随着行业成熟和终端CSP注重性价比,国产头部厂商有望作为一级供应商直接进入英伟达体系 [91][92][93][94][98]。 三、Rubin架构展望:微通道盖板&相变冷板为可选方案 - **单相冷板无法适用于Rubin架构**:Rubin架构GPU热设计功耗达2300W,整柜功率约200kW,而单相冷板设计上限为150kW/柜,需要引入新方案 [102]。 - **可行方案一:相变冷板**:通过液体工质在冷板内发生相变(液态到气态)吸收大量潜热实现高效散热,介质以氟化液为主,适配单柜300kW+场景 [103]。 - **可行方案二:微通道盖板**:将高度密集的微尺度冷却液通道网络直接置于冷板基板下方,极大增加换热面积和效率,适用于高热流密度场景 [105]。 - **后续方案研判**:微通道盖板有较大概率成为Rubin架构选择方案。因为后续Rubin Ultra方案单个GPU功耗可能达4000+W,整柜功率超600kW,相变冷板将不再适用,直接采用微通道盖板更有利于后续迭代 [106]。 - **微通道盖板VS传统冷板**:微通道盖板在传热系数、热阻、通道密度、散热均匀性上大幅优于传统宏观通道冷板,但制造复杂性、成本、流体纯度要求及系统控制难度也大幅提升 [111][112]。 四、行业相关公司介绍 - **英维克**:国内AI液冷领域龙头,具备“冷板设计—CDU—冷却工质”全链条能力。2025年前三季度营收40.26亿元,同比增长40.19%;归母净利润3.99亿元,同比增长13.13%。海外市场取得突破,冷板、快接头、CDU等产品通过英特尔验证,并被列入英伟达MGX生态系统合作伙伴,为谷歌提供CDU产品 [118][125]。 - **宏盛股份**:板翅式换热器领军者,产品用于空气压缩机、工程机械等领域。2025年前三季度营收5.54亿元,同比增长6.73%;归母净利润0.64亿元,同比增长34.78%。公司通过合资公司切入服务器ODM厂商广达的供应链体系,有望受益于AI服务器液冷需求 [126][131]。 - **申菱环境**:国内专用空调领导者,业务涵盖数据服务空调等。2025年前三季度营收25.08亿元,同比增长26.84%;归母净利润1.50亿元,同比增长5.05%。公司自2011年布局液冷技术,可提供从一次侧干冷器到二次侧CDU、Manifold等全系列液冷产品,与国内核心公司合作紧密 [132][138][139]。
3D 打印行业研究:响应AI芯片散热革命,3D打印液冷板前景广阔
国金证券· 2025-11-03 21:27
报告行业投资评级 - 报告未明确给出整体行业投资评级,但建议关注在金属3D打印尤其是铜3D打印有较好技术储备的企业 [5] 报告核心观点 - 冷板式液冷技术凭借其高散热效率和对现有数据中心基础设施的良好兼容性,有望成为数据中心主流散热方案,市场需求预计将迎来爆发式增长 [1] - 3D打印技术(增材制造)因其在设计自由度、一体化成型和制造复杂结构方面的独特优势,被认为是液冷板制造的最优技术路线,尤其适用于微通道等先进设计 [2] - 随着芯片功率密度持续提升,微通道液冷板成为新趋势,这进一步放大了3D打印技术的优势,产业界已有成熟产品落地 [3][4] - 尽管铜材料的3D打印存在技术挑战,但通过采用特定波长的激光器等技术已实现突破,为高性能液冷板制造提供了可行路径 [4] 根据相关目录分别进行总结 1 冷板式液冷有望成为数据中心主流散热方案 - 数据中心冷却能耗占其总电耗高达40%,液冷散热效率远高于风冷,强制对流水的传热系数(250-15000 W/m²·K)远高于强制对流空气(25-250 W/m²·K)[12][16] - 英伟达GB200 NVL72液冷系统可为50兆瓦数据中心每年节省超过400万美元运营成本 [1][18] - 中国智算中心液冷市场规模2024年达184亿元,同比增长66%,预计2029年将增长至1300亿元,复合年增长率达48% [1][20][21] - 冷板式液冷作为间接接触方式,成熟度最高、应用最广泛,因其服务器芯片不直接接触液体,无需对机房设备进行大规模改造 [1][28] 2 3D打印有望成为液冷板最优制造技术路线 - 3D打印技术通过分层制造,解放了流道设计限制,可实现拓扑优化和仿生设计等复杂结构,加工时间和成本对结构变化不敏感,优于CNC/铲齿加工 [2][60][64] - 3D打印一体化成型工艺在结构强度和连接处热阻方面优于传统钎焊、扩散焊等焊接工艺 [2][66] - 微通道液冷板(当量直径低于1mm)成为新趋势,锦富技术开发的0.08mm微通道液冷板已用于B200芯片散热系统 [3][66] - 传统制造工艺(如铲齿、微铣削)在加工深宽比大、结构复杂的微通道时存在限制,3D打印技术前景更好 [3][71][74] - 对于多孔结构微通道骨架这类性能最强的设计,3D打印是可行的制造技术 [76] 2.4 铜材料打印较难但可突破,产业已有3D打印液冷板产品落地 - 铜是理想冷板材料(导热系数400 W/m·K),但其对主流红光激光器反射率高,加工难度大 [4][81][82] - 采用蓝光(450nm)或绿光(515nm)激光器可显著降低铜的反射率,实现有效打印 [4][82] - CoolestDC基于EOS DMLS技术开发的一体式冷板可承受6bar以上水压,使GPU工作温度降低近50% [4][88] - Fabric8Labs采用电化学增材制造技术打印的微通道冷板,性能显著高于铲齿工艺产品 [4][89] - 希禾增材通过绿光3D打印技术实现微通道液冷板制造,打印件最小壁厚达0.05mm,致密度超过99.8% [4][94] 3 投资建议 - 建议关注在金属3D打印,尤其是铜3D打印领域有技术储备的企业,如南风股份、铂力特、华曙高科 [5][97] - 南风股份子公司南方增材从事3D打印服务,产品覆盖液冷板,正进行扩产规划并与客户洽谈 [97] - 铂力特展出3D打印液冷板,换热量相较传统直肋片冷板提升20%,压力损失减少约70% [97] - 华曙高科在金属3D打印领域有深厚技术积累,有望受益于数据中心液冷板需求提升 [97]
【深度】液冷:智算中心散热核心技术(附42页PPT)
材料汇· 2025-10-10 23:43
文章核心观点 - AI时代算力芯片功率持续提升,液冷技术凭借其高效散热、节能降噪等优势,正成为智算中心的主流散热方案,市场空间广阔 [3][6][15] - 全球数据中心PUE考核趋严及AI服务器功率密度大幅提升共同驱动液冷技术渗透率加速,冷板式是当前主流方案,浸没式是长期发展方向 [3][15][23] - 液冷产业链涵盖上游零部件、中游系统集成及下游应用,具备系统级能力的专业温控厂商和拥有高性价比优势的国产供应商有望在行业高速增长中受益 [3][61][80] 液冷技术驱动因素 - **散热能力与成本优势**:液冷系统散热能力远优于风冷,在每机架40kW的部署下,液冷投资成本比传统风冷节省14% [12];以10MW数据中心为例,液冷方案相比冷冻水方案预计2.2年左右可回收增加的初投资 [12] - **算力功率密度提升**:AI GPU机架峰值密度预计从2024年的130kW增长至2029年突破1MW,英伟达GB200超级芯片功耗达2700W,风冷技术已触及散热极限 [15] - **全球PUE政策趋严**:中国要求新建大型数据中心PUE降至1.25以内,美国联邦数据中心需在2025年前达到PUE≤1.5,欧洲要求2030年PUE降至1.3以下,液冷技术是降低PUE的关键 [23] - **云服务厂商(CSP)积极采用**:包括Meta、Google、AWS、微软在内的主流云厂均已设计和启用液冷方案 [26] 液冷技术分类与架构 - **技术路径**:主要分为冷板式、浸没式和喷淋式三大类,冷板式又可细分为单相和两相 [28][29] - **系统架构**:液冷通用架构可分为机房侧(含一次侧、二次侧设备)和ICT设备侧,一次侧主要包括室外冷水机组等外部冷源,二次侧包括CDU、Manifold、管路等 [8][53] - **当前主流与未来方向**:冷板式液冷是当前主流应用技术,英伟达GB200系列采用100%全液冷架构 [6];浸没式方案是长期发展方向,其PUE可降至1.05以下 [29][41] 市场规模与预测 - **全球市场**:预测2026年全球数据中心液冷(二次侧)市场规模有望达100亿美元 [3];其中,北美市场乐观情况下2026年规模有望达100亿美元(英伟达贡献约70亿美元,CSP自研ASIC贡献约30亿美元) [5][57] - **中国市场**:预测2026年/2027年中国液冷市场规模有望分别达到113亿元/238亿元 [5][52];国内数据中心液冷渗透率有望于2025年进入加速期 [5] 产业链与竞争格局 - **产业链结构**:上游为液冷零部件(冷板、CDU、Manifold等),中游为系统解决方案供应商/集成商,下游为AIDC服务商、运营商、互联网公司等 [3][61] - **系统集成商**:系统集成复杂度高,对综合能力要求高,老牌头部温控厂商如Vertiv、英维克等具备优势 [5][67] - **零部件厂商**:制造环节存在技术和客户壁垒,台资厂商如奇宏、双鸿、台达电子因早期配合英伟达预研而具备先发优势,但国产供应商凭借性价比有望迎来发展机遇 [5][76] - **商业模式**:解耦交付模式(服务器与机柜分离)有利于行业标准形成和灵活部署,是未来趋势 [63][65] 重点公司分析 - **海外龙头**:Vertiv(维谛技术)是英伟达独家制冷系统合作伙伴,全球数据中心冷却市场份额达23.5%,在手订单增长迅速 [85][86] - **国内龙头**:英维克是国内精密温控龙头,其Coolinside全链条液冷解决方案和UQD产品已进入英伟达MGX生态系统,平台化研发能力和大客户信赖构成核心优势 [81][90];申菱环境、高澜股份、曙光数创等国内厂商在液冷领域均有布局和项目落地 [82][95]
数据中心互联技术专题五:液冷—智算中心散热核心技术
搜狐财经· 2025-10-02 08:55
液冷技术成为智算中心散热核心 - AI芯片功率持续提升,设备功率密度已触及风冷散热极限,例如英伟达B200芯片TDP功耗达1000W,GB200超级芯片达2700W [22][23] - 液冷技术相比风冷具有温度传递快、散热能力强、噪音低、节能且节省空间的优势 [1][10] - 全球PUE考核趋严,中国要求新建大型数据中心PUE≤1.25,欧洲2030年需≤1.3,推动液冷渗透率提升 [1][25] 液冷市场规模与预测 - 预计2026年全球数据中心液冷(二次侧)市场规模有望超百亿美元 [1][6] - 北美市场冷板式液冷单位价值量约1040美元/kW,预测2026年市场规模达100亿美元(含CSP自研ASIC及英伟达GPU需求) [1][7] - 中国市场冷板式液冷单位价值量约5000元/kW,预测2026/2027年市场规模分别达113亿元/238亿元 [1][7] 液冷技术路径与对比 - 当前主流技术为冷板式液冷,兼容现有架构且易于维护,英伟达GB200系列采用100%全冷板架构 [1][10][33] - 浸没式液冷为长期方向,其PUE可低于1.05,但初始投资及运维成本较高 [1][31] - 冷板式液冷正朝两相式(散热能力提升150%+)和微通道(MLCP热阻<0.05℃·cm²/W)方向升级 [1][38][42] 液冷系统架构与驱动因素 - 液冷系统通用架构分为机房侧(一次侧、二次侧)和ICT设备侧(冷板、浸没式设备) [1][12] - 算力功率密度提升是核心驱动,AI GPU机架峰值密度预计从2024年130kW到2029年突破1MW,液冷成为刚需 [22][24] - 液冷可显著降低数据中心PUE,风冷数据中心温控能耗占比达40%,液冷方案PUE可达1.1-1.2,甚至低于1.05 [16][25][31] 液冷产业链与竞争格局 - 产业链上游为零部件(冷却塔、CDU、冷板等),中游是系统集成商,下游为AIDC服务商和运营商 [1][7] - 海外及台资企业(如奇宏、双鸿、台达)在零部件领域有先发优势 [1][7] - 国产厂商(如英维克、申菱环境)凭借高性价比、快速响应和定制化服务逐步突破,英维克UQD产品已进入英伟达供应链 [1][7]
国信证券:液冷市场有望迎来高速增长 重点推荐英维克(002837.SZ)
智通财经网· 2025-09-29 15:55
行业趋势与驱动力 - AI时代算力芯片功率持续提升,设备功率密度触及传统风冷降温方式极限,液冷技术相比风冷具有温度传递快、带走热量多、噪音低和节能节省空间的优势 [2] - 全球各地区PUE考核趋严,液冷渗透率有望持续提升 [2] - 液冷应用当前主要采用冷板式技术,例如英伟达最新商用B系列GPU采用100%全液冷架构,浸没式方案是长期发展方向 [2] 市场规模预测 - 预测2026年全球数据中心投入建设液冷的市场规模(二次侧)有望达百亿美元 [3] - 北美市场冷板式液冷单位价值量约1040美元/kW,2026年CSP云厂自研ASIC芯片带动的液冷市场规模有望达30亿美元,英伟达GPU需求旺盛,乐观预测2026年其液冷市场规模超70亿美元,综上北美液冷市场规模有望达100亿美元 [3] - 国内市场冷板式液冷单位价值量约5000元/kW,预测2026/2027年我国液冷市场规模有望分别达113亿元/238亿元,国内数据中心液冷渗透率有望于2025年进入加速期 [3] 产业链与竞争格局 - 液冷产业链上游包括液冷零部件,中游是系统解决方案供应商/集成商,下游客户为AIDC服务商、运营商、互联网等 [3] - 系统集成商以综合能力为关键,系统集成复杂且设计能力要求高,老牌传统头部温控厂商有优势,如海外的Vertiv和国内的英维克 [3] - 零部件制造环节有技术和客户壁垒,台资热管理厂商如奇宏、双鸿、台达电子早期配合英伟达预研拥有先发优势,但CSP云厂自研ASIC芯片并追求高性价比解耦方案,为国产供应商带来发展机遇 [4] 投资机遇与公司观点 - 具备系统级理解能力的专业温控厂商有望更受益行业发展,国内厂商凭借性价比、高响应速度、定制化服务及产业化优势仍有机会突破海外市场 [1][3] - 建议关注液冷全产业链的投资机遇,重点推荐英维克(002837.SZ) [1]
中光防雷(300414) - 2025年9月12日投资者关系活动记录表
2025-09-12 19:17
财务投资与业务布局 - 投资数据中心液冷技术公司航源光热(北京)科技有限公司,其泵驱两相冷板液冷技术可将PUE控制在1.1左右、WUE降至0.05kg/kWh以下,已在九江电信、长沙电信等项目验证 [2] - 2021年4月以1200万元投资成都数之联科技,持股比例0.915%,该公司为四川省人工智能产业链链主企业 [2] - 控股股东2018年8月增持1000.22万元,上市至今未减持 [3] 技术研发与产品进展 - 为国产光刻机定制研发的高性能T1 AC SPD浪涌保护器处于样品阶段 [2] - 电磁防护装置具备雷电电磁脉冲和强电磁脉冲防护功能,已应用于国防领域项目验证并准备参与投标 [2][3] 投资者回报与市值管理 - 上市以来连续10年现金分红,累计分红金额9878.11万元 [3] - 近3年累计现金分红金额达近3年会计年度年均净利润的68.52% [3] - 董事长减持系个人资金需求,管理层对公司发展前景充满信心 [3]
中金 | AI“探电”(八):景气度+算力升级+技术迭代多轮驱动,全球液冷产业链有望加速放量
中金点睛· 2025-08-07 07:45
核心观点 - AI发展驱动芯片功耗大幅增加,散热方案向液冷升级,数据中心原有的风冷散热无法支撑高算力密度及能效管控下的散热需求 [2] - 海外算力资本开支持续上修,液冷处在高景气度的通道中,同时英伟达算力芯片持续迭代,功耗提升,驱动液冷技术方案升级迭代 [2] - 全球液冷市场规模有望从2024年的19.6亿美元增长至2032年的211.4亿美元,2025-2032年CAGR达33.2% [3] - 液冷决策链或从集中逐步走向分散,市场格局仍有变化的可能,国产液冷链有望借新技术窗口期以及决策链分散化切入海外配套 [3] - 国产算力芯片突破,液冷在国内市场亦有望迎来加速渗透 [2] AI发展驱动芯片功耗提升 - 生成式AI浪潮驱动算力需求持续攀升,服务器芯片功耗不断提升,从通用服务器CPU的200W-300W提升至AI算力芯片的700W-1400W [6] - 英伟达H100及H200功耗为700W,Blackwell架构的GB200单芯片最大功耗达1200W,GB300进一步提升至1400W [6] - 机柜功耗从42kW提升至132kW,传统风冷散热技术无法支撑高算力密度下的散热需求 [6][7] 全球数据中心能效管控趋严 - 国内规定到2025年底,全国数据中心PUE降至1.5以下,新建及改扩建大型和超大型数据中心PUE降至1.25以内 [8] - 美国联邦数据中心需在2025年前达到PUE<=1.5,新建项目需<=1.4,加州对PUE<1.2的数据中心提供"能效税优",可抵免30%税收 [8] - 欧盟自2025年1月起强制测量并公开PUE数据,2026年7月起现有数据中心需满足PUE<1.5,2030年进一步降至<1.3 [9] 数据中心散热方案向液冷升级 - 芯片级散热方案从传统的热管(≤200W)、VC(≤500W)、3DVC(≤1000W)升级至冷板式液冷(≥1500W),液体导热系数是空气的20倍 [10] - 机柜级散热方案从传统4-6kW风冷升级至液冷,英伟达GB200、GB300 NVL72机柜功耗高达120kW、132kW [10] - 液冷架构分为一次侧(热量传输过程)和二次侧(IT设备冷却),二次侧包含CDU、液冷机柜及内部的液冷组件等 [11] 液冷技术方案升级 - 英伟达GB300液冷方案在二次侧液冷板、UQD、CDU等技术方案上变化较大,冷板数量翻倍、冷管线密度提升30%,快接头提升至14对 [17] - GB300 CDU从Liquid to Air(L2A)转向Liquid to Liquid(L2L),冷却能力从60kW提升至2MW,功耗从4%降至1% [20] - 一次侧在高算力、高能效需求下,磁悬浮压缩机渗透率有望提升,较传统有油系统节能45-50%,运维成本降70% [21] 液冷市场空间 - 基于英伟达液冷需求测算,2025年液冷板、UQD、manifold、CDU需求分别为59.0亿元、37.0亿元、12.9亿元、90.3亿元 [38] - 2026年液冷板、UQD、manifold、CDU需求分别为115.7亿元、65.9亿元、18.8亿元、124.9亿元,冷板和CDU的空间较大 [38] 液冷产业链格局 - 全球液冷技术提供商市场CR5占比约40%,单一企业份额不超过15%,市场偏分散 [31] - 细分环节主要由外资厂商及台系厂商主导,CDU主要份额为维谛、施耐德电子、nVent,液冷板及管路为Cooler master、AVC、宝德Byod [34] - 决策链从主要由CSP(终端用户)决定逐步分散化,ODM厂商如富士康、鸿海逐步开始自主开发设计液冷方案 [35]
英维克(002837) - 2025年5月20日投资者关系活动记录表
2025-05-21 18:16
公司业绩与发展 - 公司连续14年实现收入与利润双增长,得益于多领域业务布局、内部资源平台化及持续加大研发投入 [1] 海外业务影响 - 公司有一定比例储能热管理业务来自直接出口,当前关税问题会提高国外客户成本,抑制需求,但随着关税政策明确,影响将逐步清晰 [1] 毛利率情况 - 2024年第四季度因新会计政策将售后服务费用转至成本侧,导致毛利率降低;若去除此影响,变动不大 [2] - 2025年第一季度毛利率同比变动约 -0.46%,业务线宽、收入产品和区域/客户组合波动致毛利率正常波动 [2] 销售确认与存货 - 数据中心机房项目型需求业务销售确认周期长,在业务收入比重较高 [3] - 2024年末及2025年一季度末存货高主要因该业务已发货但项目未验收,预计未来1 - 2个季度更多项目验收后可确认收入 [3] 业务毛利率差异 - 同一行业不同区域业务因客户要求、交付、竞争环境和要素不同,毛利率存在差异 [4] 市场规模与增速 - 受人工智能驱动,中国数据中心建设市场需求自2023年末加速,2025年进一步加速 [5] 液冷应用驱动因素 - 液冷在算力设备和数据中心机房应用受芯片/服务器/机柜热密度提高、散热系统能效提高驱动 [6] 液冷采购决策 - 芯片制造商、服务器厂商、IDC运营商、云服务商均可能在液冷不同部件有采购决策权,公司凭借端到端液冷全链条能力与产业链伙伴合作 [7] 液冷产品壁垒与挑战 - 服务器冷板散热模组业务壁垒高,体现在设计、加工工艺、资本投入、下游客户集中等方面 [8] - 液冷挑战主要来自运维期间基础设施的可靠性、可用性 [8]