Workflow
NVIDIA Mission Control
icon
搜索文档
Schneider Electric Announces New Reference Designs, Featuring Integrated Power Management and Liquid Cooling Controls, Supporting NVIDIA Mission Control and NVIDIA GB300 NVL72
Globenewswire· 2025-09-18 19:15
核心观点 - 公司宣布与NVIDIA合作推出两款新型数据中心参考设计,旨在显著加速AI基础设施的部署时间,并帮助运营商采用AI就绪的基础设施解决方案 [1] 参考设计一:行业首个控制框架 - 该设计提供了行业首个也是唯一一个用于集成电源管理和液冷控制系统的关键框架,包含公司的Motivair液冷技术 [2] - 实现了与NVIDIA Mission Control(NVIDIA的AI工厂运营和编排软件)的互操作性,包括集群和工作负载管理功能 [2] - 该控制系统参考设计也可用于公司为NVIDIA Grace Blackwell系统设计的数据中心参考设计,使运营商能够跟上加速计算的最新进展 [2][4] - 采用基于MQTT协议的"即插即用"架构,桥接了运营技术(OT)基础设施和信息技术(IT)系统 [7] - 专注于建筑与AI基础设施管理软件之间的无缝互操作性,建立了电源和冷却的冗余系统,并引入了测量AI机架功率分布的新指南 [8] - 提供端到端控制系统,包括用于电源管理和液冷控制数据发布的标准化格式接口,可被本地应用及上游数据消费者和工具使用 [14] - 控制架构旨在管理冷却和配电基础设施的冗余度,包括冷却液分配单元(CDU)和远程电源面板(RPP) [14] - 提供测量AI机架功率分布的新指南,重点关注机架峰值功率和电能质量监测 [14] 参考设计二:NVIDIA GB300 NVL72部署 - 该设计专注于在单个数据大厅内部署AI工厂的AI基础设施,每个机架功率高达142千瓦,专门针对NVIDIA GB300 NVL72机架 [3] - 旨在为下一代NVIDIA Blackwell Ultra架构提供框架,涵盖四个技术领域:设施电源、设施冷却、IT空间和生命周期软件 [3] - 设计提供符合美国国家标准学会(ANSI)和国际电工委员会(IEC)标准的配置 [3] - 支持基于NVIDIA GB300 NVL72的集群部署,最大机架密度为142kW,例如采用DGX GB300系统的NVIDIA DGX SuperPOD [9] - 数据大厅专为托管三个基于NVIDIA GB300 NVL72的集群而优化,这些集群由多达1,152个GPU提供支持,使用液对液CDU和高温冷水机 [9] - 包含公司的行业领先的ETAP和EcoStruxure IT Design CFD模型,允许用户利用数字孪生模拟特定电源和冷却场景以优化设计 [10] 设计优势与行业影响 - 新的参考设计使数据中心运营商能够加速在任何地方部署用于AI工厂的AI基础设施 [1] - 通过提供经过验证、有记录的数据中心物理基础设施设计,使全球运营商能够在最新的AI基础设施解决方案到达之前,就设计并整合下一代电源和液冷控制基础设施 [5] - 有助于优化成本、效率和可靠性,为最新的AI工厂奠定基础,使数据中心运营商不仅能满足当前需求,更能提前做好准备 [5] - 公司持续与NVIDIA合作,提供完全工程化、经过测试的模型,以应对新的NVIDIA GB300 NVL72平台 [10] - 除了新的参考设计,公司还为各种场景开发了九个AI参考设计,包括预制模块、改造数据中心以及为NVIDIA GB200 NVL72和GB300 NVL72集群专门构建的AI基础设施 [11] - 公司对其每个参考设计都应用全面的实际工程,表明其持续致力于开发行业最先进、高能效、高弹性、高性能的数据中心架构 [12]
NVIDIA Blackwell Ultra DGX SuperPOD Delivers Out-of-the-Box AI Supercomputer for Enterprises to Build AI Factories
GlobeNewswire News Room· 2025-03-19 03:20
文章核心观点 - 英伟达宣布推出世界最先进企业AI基础设施NVIDIA DGX SuperPOD™,还推出NVIDIA Instant AI Factory服务,以满足企业对先进加速基础设施的需求 [1][5] 产品发布 - 英伟达宣布推出基于NVIDIA Blackwell Ultra GPUs的NVIDIA DGX SuperPOD™,为各行业企业提供AI工厂超级计算能力 [1] - 英伟达推出NVIDIA Instant AI Factory,这是一项由Blackwell Ultra驱动的NVIDIA DGX SuperPOD的托管服务 [5] 产品特性 DGX GB300系统 - DGX GB300系统集成NVIDIA网络,可提供开箱即用的DGX SuperPOD AI超级计算机,具备FP4精度和更快AI推理能力 [2] - 该系统采用NVIDIA Grace Blackwell Ultra超级芯片,含36个NVIDIA Grace™ CPU和72个NVIDIA Blackwell Ultra GPU,采用机架式液冷架构 [3] - 可扩展至数万个NVIDIA Grace Blackwell Ultra超级芯片,通过多种网络连接,为高计算量工作负载加速训练和推理 [6] - 比基于NVIDIA Hopper™系统的AI工厂提供高达70倍的AI性能,拥有38TB快速内存 [7] - 每个系统配备72个NVIDIA ConnectX® - 8 SuperNICs,网络加速速度高达800Gb/s,18个NVIDIA BlueField® - 3 DPUs可加速大规模AI数据中心的性能、效率和安全性 [8] DGX B300系统 - 采用风冷设计,利用NVIDIA B300 NVL16架构,帮助各地数据中心满足生成式和智能体AI应用的计算需求 [4] - 是一个AI基础设施平台,能为每个数据中心带来节能的生成式AI和AI推理能力 [9] - 与Hopper一代相比,推理AI性能快11倍,训练速度提高4倍 [9] - 每个系统提供2.3TB的HBM3e内存,配备8个NVIDIA ConnectX - 8 SuperNICs和2个BlueField - 3 DPUs [11] 软件支持 - 英伟达宣布推出NVIDIA Mission Control™,用于基于Blackwell的DGX系统的AI数据中心运营和编排 [12] - NVIDIA DGX系统支持NVIDIA AI Enterprise软件平台,包括NVIDIA NIM™微服务和NVIDIA AI蓝图等 [13] 服务优势 - NVIDIA Instant AI Factory通过Equinix提供托管服务,利用全球专用设施,为企业提供完全配置好的AI工厂,消除数月的部署前基础设施规划 [14][15] 产品可用性 - 搭载DGX GB300或DGX B300系统的NVIDIA DGX SuperPOD预计今年晚些时候从合作伙伴处获得 [16] - NVIDIA Instant AI Factory计划今年晚些时候推出 [16]