AI服务器市场动态 - 2024年第二季度起,NVIDIA Blackwell新平台产品(GB200 Rack、HGX B200)逐步放量,B300/GB300系列进入送样验证阶段,预计Blackwell GPU将占NVIDIA高阶GPU出货比例80%以上 [1] - 北美CSP大厂Oracle扩建AI数据中心,带动富士康订单增长,同时利好Supermicro和广达等ODM厂商 [2] - Supermicro近期获得部分GB200 Rack项目,广达受益于Meta、AWS、Google等客户合作,成功拓展GB200/GB300 Rack业务并新增Oracle订单 [2] - 纬颖科技以ASIC AI Server为主力,深化与Meta、Microsoft合作,成为AWS Trainium AI机种主要供应商,预计下半年业绩增长 [2] 液冷技术发展趋势 - 2025年GB200/GB300 Rack出货扩大将推动液冷散热方案在高阶AI芯片的采用率提升,新建数据中心在设计初期即导入"液冷兼容"概念以优化热管理效率 [3] - 液冷架构需配套复杂设施(如冷却液管线、冷却水塔、CDU),相比传统气冷系统更高效且具扩充弹性 [3] - 液冷成为高效能AI数据中心标配,带动散热零部件需求升温,富世达已量产出货GB300专用快接头及AWS ASIC液冷快接头,供应比例与丹佛斯相当 [5] - 双鸿积极布局数据中心液冷市场,客户包括Oracle、Supermicro、HPE,产品涵盖冷水板与分歧管模块,并开始向Meta供货,有望进入GB200平台供应链 [5] 产业链核心厂商动向 - 富士康、广达、Supermicro、纬颖科技等ODM厂商因AI服务器需求增长显著受益,订单主要来自Oracle、Meta、AWS、Google等大型客户 [2] - 富世达和双鸿成为液冷散热关键零部件供应商,分别切入NVIDIA GB300和Meta/AWS供应链,推动液冷技术商业化落地 [5]
研报 | 预估Blackwell将占2025年英伟达高阶GPU出货逾80%,液冷散热渗透率续攀升