行业与公司分析总结 行业概述 - 行业:AI服务器与数据中心基础设施[1] - 核心痛点:AI服务器开发的四大关键挑战包括功耗增加(高压电源)、热管理(液冷)、网络扩展(纵向与横向)以及先进封装技术[1] - 行业动态:亚太OCP峰会聚焦AI数据中心集群的电力与冷却创新,预计2026年首个1GW+ AI数据中心(Prometheus)投入运营,后续Hyperion项目将扩展至5GW[1] 核心观点与论据 电力与冷却技术 - 高压电源(HVDC):Nvidia推动800V设计,但供应链更关注±400V架构(如微软Mt Diablo 400机架),因兼容现有数据中心实践[18][21] - 液冷技术:主流L2A方案PUE为1.2-1.3x,L2L虽更高效(PUE 1.05-1.1x)但需重构基础设施,短期内渗透受限;亚马逊采用定制IRHX方案,Delta为主要ODM[12][13] - 受益公司:Delta(技术领先)、Vertiv(VRT US)、AVC(3017 TT)、Auras(3324 TT)[1][12] 网络升级 - 以太网替代趋势:AI集群驱动400G/800G/1.6T网络升级,CSPs探索以太网方案(如UALink)以降低Infiniband依赖,利好Arista(ANET US)、Broadcom(AVGO US)[31][33] - 模块化设计:DC-MHS平台(Intel Oak Stream支持)提升服务器灵活性,ASPEED(AST2700 BMC芯片)受益[9] 先进封装与垂直整合 - 封装技术:TSMC(2330 TT)、ASE(3771 TT)为先进封装关键供应商[1] - 垂直电源交付:Google TPU已采用,预计扩展至下一代AI ASIC(如MAIA),Delta与Infineon为主要供应商[29][30] 其他重要内容 数据中心投资 - CSP资本开支:2025/26年Top 4美国CSP数据中心capex预计同比+55%/+25%(原预测+38%/+20%),反映AI投资强劲[1] - 新数据中心标准:需支持更高功率密度(50-100MW现有设施不足),Meta计划建设Titan AI集群优化网络效率[1] 技术路线争议 - BMC行业:OpenBMC开源固件不会降低行业门槛,反而促进芯片厂商聚焦硬件设计(如ASPEED整合Caliptra安全模块)[7][10] - VR200服务器设计:初期沿用Bianca Ultra布局,2026年中量产;延迟对插槽供应商的利好[9] 数据引用 - 电力架构:±400V HVDC机架支持800kW-1MW+功耗(Mt Diablo 400)[18] - 液冷效率:L2L比L2A PUE低0.15-0.25点[12] - 资本开支:2025年CSP数据中心capex上调至+55% YoY[1]
服务器:OCP 的 10 大关键要点
2025-08-15 09:24