800V DC transition
搜索文档
电气设备- 实地调研纪要:数据中心会议核心收获-Electrical Equipment & Multi-Industry_ Notes From The Road_ Takeaways from Datacenter Conference
2026-03-30 13:15
数据中心行业会议纪要关键要点总结 一、 行业与公司概述 * 会议聚焦于**数据中心行业**,特别是为支持下一代AI工作负载(如NVIDIA的Rubin Ultra和Feynman芯片)所需的高密度、高功率基础设施 [4] * 会议涉及的主要公司包括**Vertiv (VRT)**、**Eaton (ETN)**、**Ecolab (ECL)**、**Stulz**、**Schneider Electric (SU)**、**Trane**、**ABB**、**Delta Electronics**、**Legrand**等,涵盖了电源、冷却、服务等关键环节的供应商 [1][4][7][28][44][46][48][50] 二、 行业需求与宏观趋势 * 行业需求强劲,关于需求是否为泡沫的争论已成为过去式,共识是未来**7-10年将持续增长** [1] * 行业正处于**投资超级周期**的早期阶段,低空置率表明市场仍非投机性 [10] * **推理(Inference)** 占AI工作负载的**70%**,正在驱动技术扩散,代理AI和物理AI正在快速发展 [10] * 关键瓶颈包括:**电力供应(最大制约因素)**、执行与劳动力短缺(尤其是2026-2027年关键的电工和机械工人)、电力及变电站设备供应链紧张,以及潜在的资本形成问题 [1][22] * 到2030年,行业将构建**现场发电与电网互联的混合电力生态系统**,预计**50%以上的新建项目将采用“电表后”(behind-the-meter)供电方式** [7][22] 三、 电源架构演进:800V DC成为必然 * **800V DC电源架构**是数据中心设计的必然革命,旨在支持**600kW以上**的机柜,以满足下一代AI芯片(如NVIDIA Rubin Ultra)的需求 [4][17] * 当单机柜功率超过约**400-500kW**时,传统的48V DC因铜缆限制不再可行,800V DC成为必需 [4] * 相较于传统交流系统约**25%** 的总功率损耗,800V DC架构可将损耗降至约**10%**,并显著减少铜用量 [4][42] * 大规模部署预计在**2028年**左右开始,目前客户仍处于讨论阶段 [1][4][44] * 向800V DC过渡面临挑战:增加电弧和故障能量风险、推动行业采用**两相冷却**、电气规范不成熟、缺乏高压DC设计经验、两相冷却供应链有限以及市场反应滞后 [4][5][19] 四、 冷却技术趋势:单相为主,两相为未来方向 * 目前,**单相(1P)直接芯片(D2C)冷却**是主导且最实用的解决方案,因其易于改造、复杂度低,且上市速度和正常运行时间是运营商的首要任务,而非效率 [5][13] * 然而,**800V DC将推动行业采用两相(2P)冷却**,因为单相液体含有水或导电添加剂,高压会导致电解(产生H₂和O₂)、气体生成和爆炸风险,而两相冷却剂的绝缘特性在高压环境下至关重要 [5][17] * 两相冷却理论上具有**4-9倍**的更高入口流速优势,但尚未大规模实施,也未能证明其经济性优于单相冷却 [5][13] * 芯片功率增加的同时,表面积也在增大,使得热通量保持可控,加之冷板材料和直接芯片方法的创新,**延长了单相冷却的适用寿命** [5][13] * 行业共识是,两相冷却最终将占主导地位,但**不会在未来几代芯片内实现**,具体取决于芯片设计 [15] 五、 设施冷却与热管理 * **冷水机组不会消失**,尽管其运行时间可能减少。运营商出于实用主义和对正常运行时间的保证,在可预见的未来,冷水机组仍将是美国大多数数据中心设计的关键部分,尤其是在德克萨斯州等主要市场,项目普遍采用**2N+1配置** [6][13] * 在**45°C**温度下运行是可能的,如果能**100%** 持续在此温度下运行,将减少对冷水机的需求。但这通常需要多种因素叠加,远非常态,且客户有多种排热方式,没有一种方案适合所有日益复杂的热管理系统 [1][6] * 热回收应更多地被讨论,尽管区域供暖是首选,但许多数据中心不靠近城市,农业或其他社区效益也是可行的方向 [30] 六、 电力投资与融资结构 * 电力瓶颈促使运营商与公用事业公司建立**合资企业(JV)** 以加速电力供应,并将能源资产与数据中心运营的融资结构分离,因其风险和回报特征不同 [7][22] * 风险分配至关重要,正确的分配能打开资本渠道,反之则相反 [7][22] * **电网互联**仍是所有各方的首要任务,“电表后”解决方案被视为补充而非独立方案,特别是在**1GW**以下规模时。对于多GW园区,可能越来越多地依赖“电表后”作为基础电力,电网作为稳定器 [7][22] * 资本需求变得更大、期限更长,包括首付款、过桥贷款、建设贷款等多种形式 [7][22] * 美国数据中心电力需求与电网供应差距正在扩大:2022年需求为**200TWh**,供应为**250TWh**;预计2028年需求达**500TWh**,供应为**350TWh**;2030年需求进一步增至**606TWh**,供应为**400TWh** [35] * 因此,**现场发电**变得至关重要。目前美国约**5400个**数据中心中,约**700个(13%)** 以现场发电为主要电源。预计到2030年,**2000-2500个(38%)** 数据中心将采用现场发电,其中**1500个(27%)** 可能完全离网运行 [35] 七、 冷却即服务(CAAS)与维护市场 * **Ecolab通过与CoolIT的合作**,正将其定位为AI数据中心的综合冷却即服务提供商,利用其在**40个**国家的**1100个**数据中心拥有的**40年**闭环流体管理经验 [7][25] * 其核心价值主张是解决一个关键痛点:根据对**200个**乙二醇热冷却系统回路的抽样分析,**65%** 不符合ASHRAE和OCP标准,冷却液降解导致热效率低下、GPU降频,甚至集群关闭 [7][25] * 对于一个**98MW**的数据中心,仅因更换流体导致**5天**停机,就可能造成超过**600万美元**的租金收入损失 [7][25] * Ecolab的**3D TRASAR**单元支持**24/7**实时冷却液监控,目前安装了约**400台**,预计年底将扩展到**1000台** [7][25] * **Vertiv (VRT)** 在服务领域占据主导地位,拥有约**5000名**现场服务工程师,其服务规模似乎是专注于该垂直领域的其他公司的**10倍** [1][41] * 随着初始液冷安装的成熟,服务变得越来越重要,**系统冲洗(在调试前、后及维护期间)的重要性超出行业最初预期**,这支持了VRT近期收购PurgeRite交易的价值 [1] 八、 主要公司动态与定位 * **Vertiv (VRT)**:在800V DC解决方案方面处于领先地位,最有可能像在液冷领域一样成为赢家,其产品内容将净增加。公司近期宣布扩大制造产能,并收购了热交换技术公司ThermoKey以增强其端到端热管理链。VRT拥有约5000名现场服务工程师,服务优势明显。尽管近期表现出色,仍是该机构在数据中心领域的首选 [1][39][41] * **Eaton (ETN)**:展示了强大的800V DC组件组合,包括**中压固态变压器(MVSST)**,可将中压交流电直接转换为800V直流电,以及侧柜电源架、DC-DC转换器和直流母线,构想了一个端到端的直流数据中心。过去5年,其数据中心业务增长了**4.5倍**,并承诺在未来6年实现**3倍**增长。公司已加速投资,包括**130亿美元**用于并购,**15亿美元**用于2024/2025年全球产能投资 [37][39] * **Stulz**:2025年美国销售额为**3.7亿美元**,预计今年将达到**5亿美元**,占公司总收入一半以上。公司认为行业尚未为800V DC革命做好充分准备,但革命将在未来几年内到来。他们指出,800V DC可能是推动两相冷却的催化剂 [17][19] * **Schneider Electric (SU)**:正在与NVIDIA合作开发支持高达**1.2MW**机柜的800V DC侧柜。公司认为,到2030年,全球建设的**200GW**数据中心容量中,**15%-25%** 的需求可能受到影响,但剩余的**75%-85%** 将足以弥补,因此800V DC转型总体上是净积极的,最终将增加其每兆瓦的潜在市场规模 [46] 九、 其他技术要点 * **电池储能系统(BESS)**:负载的可变性和不可预测性越来越大。BNEF跟踪的**150个**项目中,**25%** 规模在**500MW**或以上,**30-40%** 将采用离网供电。BESS用于调节负载可变性,与电网的交互效率超过**99%** [33] * **变压器供应链**:小型供应商如GIGA和Maddox Transformers提供比市场价低**15-20%** 的产品。Maddox年收入约**6亿美元**,运行速率达**8亿美元**,年产量**5000台**,市场份额低于**5%**,但库存有**16000台**以应需求 [43] * **改造挑战**:向AI转型没有放之四海而皆准的方法,企业环境将是混合式的。沟通不畅可能导致基础设施无法支持高密度机柜。功率分配需要创造性解决方案 [28] * **设计考量**:高密度设计是定制化的,无法复制粘贴。冷却技术影响计算优化,仅看**PUE**不能涵盖一切,可能需要新的关键绩效指标。**每瓦令牌数(token per watt)** 成为新的关注点 [30]