Workflow
Amazon Web Services is building equipment to cool Nvidia GPUs as AI boom accelerates
CNBC·2025-07-10 05:06

云计算与AI硬件创新 - 亚马逊云服务(AWS)开发了名为"In-Row Heat Exchanger(IRHX)"的新型冷却硬件,可适配现有及新建数据中心,专门用于解决下一代Nvidia GPU的高能耗散热问题[1][4] - 传统风冷方案已无法满足Nvidia Blackwell等新一代AI芯片的散热需求,液冷方案又面临数据中心空间占用大、水资源消耗激增等商业化障碍[3][4] - AWS推出的P6e计算实例已支持Nvidia GB200 NVL72架构,该架构单机柜集成72块Blackwell GPU,专为大规模AI模型训练优化[5] 行业竞争格局 - AWS作为全球最大云基础设施供应商,2025年一季度运营利润率创2014年以来新高,云计算业务构成公司净利润主要来源[6] - 微软作为第二大云服务商,2023年已自主开发Sidekick系统用于冷却自研Maia AI芯片,显示头部厂商正加速硬件自主化[7] - 除AWS外,微软和CoreWeave此前已率先提供基于Nvidia GB200 NVL72的计算集群服务[5] 技术自主化趋势 - 亚马逊通过自研通用计算芯片、AI专用芯片、存储服务器及网络路由器等硬件,显著降低对第三方供应商依赖[6] - 头部云服务商硬件创新聚焦两个方向:提升能效(如AWS的IRHX)与增强计算密度(如Nvidia GB200架构)[4][5] - 行业正经历从标准化硬件采购向定制化解决方案的转型,散热技术成为制约AI计算规模的关键突破点[2][3][7]