Workflow
NVIDIA GB300 NVL72
icon
搜索文档
告别54V时代,迈向800V,数据中心掀起电源革命
36氪· 2025-08-07 19:21
AI数据中心电力需求变革 - 全球AI数据中心电力需求正因ChatGPT、Claude、DeepSeek等AI应用爆发而达到临界点,机架功率从传统20-30kW跃升至500kW-1MW级别,英伟达单AI GPU服务器功率逼近1kW,满配NVL AI服务器机柜功率突破100kW [1] - 2027年规划的1MW AI Factory机架集群对供电系统提出颠覆性要求,行业加速向800V直流HVDC高压体系演进,该架构可降低能量损耗、提升能效并支持兆瓦级部署 [1] 传统供电系统局限性 - 传统54V直流供电系统在兆瓦级机架中面临空间占用过大问题:NVIDIA GB200 NVL72设备需8个电源架占用64U空间,挤压计算设备安装空间 [2] - 1MW机架采用54V供电需200千克铜母线,1GW数据中心需50万吨铜,且重复交直流转换导致效率低下和故障隐患增加 [3] - 800V HVDC方案可将13.8kV交流电直接转换,减少中间环节,降低70%维护成本并提升5%端到端能效 [4][5] 行业技术布局动态 - 英伟达2025年牵头成立800V HVDC联盟,目标2027年实现1MW单机架供电,整合芯片/电源/电气工程/数据中心全产业链 [4] - 微软推出Mount DrD Low分离式架构计划升级至400V HVDC,谷歌设计±400V全场直流供电方案,Meta分三步推进兆瓦级HVDC [5] - 英诺赛科成为英伟达800V架构唯一中国合作商,合作推动单机柜功率突破300kW,算力密度提升10倍 [6] 国产供应链技术突破 - 长电科技在800V架构中覆盖PSU/IBC/PoL全环节:提供TO263-7L/TOLL/TOLT封装分立器件和塑封模块,兼容GaN/SiC材料 [7] - 实现双面散热PDFN封装和SiP技术突破,完成60A以上高集成度电源模块研发,建立从热仿真到性能优化的全流程服务能力 [8] GaN技术优势分析 - 英诺赛科入选源于GaN供应紧张(台积电关闭产线),GaN相比SiC在高压场景具备更优性能表现 [9] - GaN HEMT器件具有ns级开关速度、无反向恢复电流特性,适合高频应用,能提升转换效率并缩减设备体积 [10][11] - GaN器件通过二维电子气导电实现低导通电阻,在800V架构中可减少发热量并提高功率密度 [12]
Flex Delivers Advanced Power Management for Next-Generation NVIDIA AI Infrastructure
Prnewswire· 2025-08-05 07:05
新产品发布 - 公司推出新型电源架系统 旨在加速800 VDC电源架构并支持AI基础设施和AI工厂的快速增长需求 [2] - 该系统为NVIDIA GB300 NVL72系统提供行业领先的效率 同时为部署1兆瓦IT机柜做准备 [2] 技术细节 - 电源架系统在紧凑的行业标准尺寸中每架可提供高达33千瓦的功率 配备6个电源单元采用3+3冗余配置 [4] - 系统在半负载时峰值效率达97.5% 相比传统系统减少60%以上的功率转换损耗 [4] - 完全兼容配备72个NVIDIA Blackwell Ultra GPU的NVIDIA GB300 NVL72平台 支持高性能GPU和CPU工作负载 [4] 行业合作与未来规划 - 公司与NVIDIA合作 为超大规模和托管客户提供下一代AI基础设施部署方案 支持1兆瓦机柜和800 VDC数据中心电源架构 [3] - 计划全面生产800 VDC电源组件 与NVIDIA Kyber机架级系统发布同步 确保AI模型的可扩展性 [5] 公司能力与产品组合 - 电源架系统加入公司从电网到芯片的电源产品组合 提供先进的制造能力和端到端生命周期服务 [6] - 公司拥有全球30个国家的制造网络 为多样化行业提供技术创新和供应链解决方案 [7] 市场定位 - 公司定位为制造业合作伙伴 帮助客户设计和构建改善世界的产品 通过可持续运营提供技术解决方案 [7] - 通过创新的电源和冷却产品组合 加速全球数据中心部署 [8]
CoreWeave Becomes First Hyperscaler to Deploy NVIDIA GB300 NVL72 Platform
Prnewswire· 2025-07-04 00:14
文章核心观点 CoreWeave作为AI云服务提供商率先为客户部署最新NVIDIA GB300 NVL72系统并计划全球大规模扩展部署,持续在AI基础设施领域保持领先 [1][5] 分组1:GB300 NVL72系统情况 - NVIDIA GB300 NVL72在AI推理和智能体工作负载性能上有重大飞跃,用户响应速度最高提升10倍,每瓦吞吐量提高5倍,推理模型推理输出增加50倍 [2] 分组2:CoreWeave部署情况 - CoreWeave是首个为客户部署NVIDIA GB300 NVL72系统的AI云服务提供商,计划全球大规模扩展部署 [1] - CoreWeave与Dell、Switch和Vertiv合作构建GB300 NVL72系统初始部署,将最新NVIDIA GPU引入其AI云平台 [3] - GB300 NVL72部署与CoreWeave云原生软件栈紧密集成,硬件级数据和集群健康事件通过其收购的Weights & Biases开发者平台集成 [4] 分组3:CoreWeave过往成就 - CoreWeave此前率先提供NVIDIA H200 GPU,是首个让NVIDIA GB200 NVL72系统广泛可用的AI云服务提供商,此次GB300 NVL72初始部署扩展了其现有Blackwell机队 [5] - 2025年6月CoreWeave与NVIDIA和IBM合作,使用近2500个NVIDIA GB200 Grace Blackwell超级芯片提交最大规模MLPerf® Training v5.0基准测试,在最复杂模型Llama 3.1 405B上27.3分钟取得突破结果 [6] - CoreWeave是唯一获SemiAnalysis的GPU Cloud ClusterMAX™评级系统最高白金评级的超大规模云服务提供商 [6] 分组4:CoreWeave公司介绍 - CoreWeave是AI超大规模云服务提供商,提供前沿软件驱动的云平台,为企业和领先AI实验室提供加速计算云解决方案,自2017年在美欧运营数据中心,2024年入选TIME100最具影响力公司和福布斯云100榜单 [7]
Dell Technologies vs HPE: Which AI Server Stock Has Greater Upside?
ZACKS· 2025-04-09 04:00
行业概述 - AI基础设施市场预计到2028年将超过2000亿美元支出,AI服务器投资是关键催化剂 [2] - 戴尔科技和惠普企业是服务器和企业解决方案市场的知名提供商,专注于AI驱动的基础设施和云计算 [1] 戴尔科技(DELL) - 受益于AI服务器强劲需求,PowerEdge XE9680L AI优化服务器需求旺盛 [3] - PowerEdge支持NVIDIA Blackwell Ultra平台,包括HGX B300 NVL16、GB300 NVL72等,XE8712服务器支持每机架144个NVIDIA B200 GPU [4] - 2025财年第四季度AI服务器订单增加17亿美元,当季出货21亿美元AI服务器,积压订单达41亿美元 [5] - 合作伙伴包括NVIDIA、微软、Meta Platforms和Imbue,与NVIDIA扩大AI工厂合作 [6] 惠普企业(HPE) - 2025财年第一季度服务器业务同比增长30%,达43亿美元 [7] - ProLiant Gen 12服务器平台提升性能,量子抗性安全和直接液冷技术,能效提升可替代26台Gen9或14台Gen10服务器,功耗降低至少65% [8] - GreenLake边缘到云平台年化经常性收入(ARR)超20亿美元,同比增长46%,超41000家企业使用 [9] 股价表现与估值 - 年内戴尔科技和惠普企业股价分别下跌349%和376% [10] - 戴尔科技12个月前瞻市销率05倍,低于惠普企业的052倍 [13] 盈利预测 - 戴尔科技2026财年每股收益共识预估为934美元,过去30天未变,同比增长1474% [15] - 惠普企业2025财年每股收益共识预估为194美元,过去30天下降76%,同比下滑251% [15] 结论 - 戴尔科技凭借强大产品组合和合作伙伴基础更具长期吸引力 [17] - 惠普企业面临关税导致的成本上升和收购Juniper Networks的监管障碍 [17]
UPDATE -- NVIDIA, Alphabet and Google Collaborate on the Future of Agentic and Physical AI
Globenewswire· 2025-03-19 11:39
文章核心观点 NVIDIA、Alphabet和Google宣布新合作计划,推进人工智能发展,使人工智能工具更普及,加速实体人工智能开发,变革医疗、制造和能源等行业[1] 分组总结 合作总体情况 - 工程师和研究人员紧密合作,利用AI和模拟技术开发机器人、重塑药物发现、优化能源网格等,相关团队将在NVIDIA GTC全球人工智能会议上讨论合作里程碑 [2] - Google和NVIDIA高层对双方合作表示肯定和期待 [4] 开发负责任的人工智能和开放模型 - Google DeepMind和NVIDIA通过内容透明度建立对生成式AI的信任 [5] - NVIDIA将成为Google DeepMind的SynthID首个外部用户,该技术可嵌入数字水印,保护输出内容完整性 [6] - 双方合作优化Gemma模型,使其在NVIDIA GPU上运行,Gemma 3的推出是开放创新的重大进步 [7] - 合作将扩展到通过Vertex AI在NVIDIA加速计算上优化基于Gemini的工作负载 [8] 智能机器人时代 - Intrinsic与NVIDIA合作,为Intrinsic Flowstate构建更深入直观的开发者工作流程,支持通用机器人抓取能力,还将分享早期OpenUSD框架流式连接 [10] - NVIDIA、Google DeepMind与迪士尼研究合作开发开源物理引擎Newton,可使MuJoCo加速机器人机器学习工作负载超70倍 [11] 创新应用于现实挑战 - Isomorphic Labs利用AI重塑药物发现,在Google Cloud上搭建药物设计引擎,借助NVIDIA GPU开发先进AI模型 [12] - Tapestry与NVIDIA探索提高电网模拟速度和准确性的方法,聚焦新能源整合和电网扩容挑战,评估潜在解决方案 [13][14] 下一代人工智能优化基础设施 - Google Cloud将率先提供NVIDIA Blackwell GPU的最新实例,包括NVIDIA GB300 NVL72和NVIDIA RTX PRO 6000 Blackwell Server Edition [15] - Blackwell Ultra包括GB300 NVL72和HGX™ B300 NVL16系统,GB300 NVL72 AI性能比GB200 NVL72高1.5倍,为AI工厂带来的收入机会比NVIDIA Hopper™高50倍 [16] - Google Cloud成为首家提供基于NVIDIA B200和GB200实例的云服务提供商,A4已全面可用,A4X即将推出 [17] - Google Cloud和NVIDIA合作优化JAX和MaxText等开源框架,使其在NVIDIA GPU上高效运行 [18]
Supermicro Adds Portfolio for Next Wave of AI with NVIDIA Blackwell Ultra Solutions, Featuring NVIDIA HGX™ B300 NVL16 and GB300 NVL72
Prnewswire· 2025-03-19 05:56
文章核心观点 Supermicro宣布推出由NVIDIA Blackwell Ultra平台驱动的新系统和机架解决方案,与NVIDIA的新AI解决方案增强了其在AI领域的领导地位,为计算密集型AI工作负载提供突破性性能[1]。 公司合作与技术优势 - Supermicro与NVIDIA合作,通过NVIDIA Blackwell Ultra平台将最新AI技术推向市场 [1][2] - NVIDIA Blackwell Ultra平台克服GPU内存容量和网络带宽限制,每个GPU提供288GB HBM3e内存,网络平台集成使计算结构带宽翻倍至800 Gb/s [2] 产品类型与特点 Supermicro NVIDIA HGX B300 NVL16系统 - 为数据中心设计,基于成熟架构,有液冷和气冷版本,采用新8U平台,每个系统提供2.3TB HBM3e内存 [4][5] - 每个GPU连接在1.8TB/s的16 - GPU NVLink域中,集成8个NVIDIA ConnectX® - 8 NIC支持800 Gb/s节点间速度 [5] Supermicro NVIDIA GB300 NVL72 - 单个机架集成72个NVIDIA Blackwell Ultra GPU和36个NVIDIA Grace™ CPU,具备百亿亿次级计算能力 [6] - 升级HBM3e内存容量,超20TB HBM3e内存,NVIDIA ConnectX® - 8 SuperNIC提供800Gb/s通信速度 [6] 液冷解决方案 - 公司在液冷、数据中心部署和构建模块方法方面有专业知识,能以行业领先的部署时间交付NVIDIA Blackwell Ultra [7] - 提供完整液冷产品组合,包括直接到芯片的冷板、250kW机架内CDU和冷却塔 [8] - 现场机架部署帮助企业从头构建数据中心,满足特定需求 [8] 展会信息 - 2025年3月17 - 21日,GTC参观者可在加利福尼亚州圣何塞1115号展位看到Supermicro的X14/H14 B200、B300和GB300系统及机架级液冷解决方案展示 [10] 公司概况 - Supermicro是全球应用优化的全面IT解决方案领导者,致力于为企业、云、AI和5G电信/边缘IT基础设施提供创新解决方案 [11] - 产品包括服务器、AI、存储等系统及软件和支持服务,产品在美、台、荷制造,优化以降低总体拥有成本和环境影响 [11] - 获奖的服务器构建模块解决方案组合让客户可根据工作负载和应用选择系统 [11]
Wiwynn Showcases AI Servers Featuring NVIDIA GB300 NVL72 Platform and Liquid-Cooling Innovations at GTC 2025
Prnewswire· 2025-03-19 04:00
文章核心观点 Wiwynn在GTC 2025展示最新创新成果,包括与纬创合作开发、由NVIDIA Blackwell Ultra平台驱动的AI服务器,以及先进的机架级液冷管理系统UMS100L,以满足生成式AI时代对计算和冷却能力的需求 [1]。 公司介绍 - Wiwynn是创新的云IT基础设施提供商,提供高质量计算、存储产品及机架解决方案,致力于“释放数字化力量,点燃可持续创新”愿景,积极投资下一代技术,提供从云到边缘的优化IT解决方案 [3] 合作意义 - Wiwynn总裁表示在AI革命中需机架级全面集成,公司作为首批适配NVIDIA GB300 NVL72的企业,与NVIDIA和纬创合作展示创新液冷、无风扇设计AI机架解决方案及先进平台,凭借系统集成和冷却技术专长,能提供高性能AI计算解决方案并让客户处于AI时代前沿 [2] - NVIDIA副总裁称合作推动AI工厂创新,结合Wiwynn基础设施和NVIDIA加速计算技术,使数据中心能处理AI推理模型,开启计算新时代 [2] 展示产品亮点 NVIDIA GB300 NVL72 - Wiwynn和纬创是首批适配该平台的企业,由NVIDIA Blackwell Ultra加速,有更高AI FLOPS和超20TB HBM3e内存,引领AI和加速计算新时代 [5] - 采用前沿全液冷设计、NVIDIA ConnectX® - 8 SuperNIC及网络平台集成,实现卓越机架级热效率和AI计算加速,为AI推理等应用释放最佳性能 [5] NVIDIA HGX™ B300 NVL16 - 推出全新10U HGX系统,基于NVIDIA Blackwell Ultra的HGX™ B300 NVL16,以优化计算和增加内存引领AI新时代,实现突破性性能 [5] - 支持电源供应单元和母线排供电选项,使数据中心能在现有基础设施中快速部署该解决方案 [5] NVIDIA Spectrum - 4 - 基于NVIDIA Spectrum - 4 MAC开发优化以太网连接解决方案,展示集成SONiC和NVIDIA® Cumulus®的NVIDIA Spectrum - X™以太网AI网络平台 [5] - 该创新网络解决方案旨在通过先进以太网连接为多租户、超大规模AI云提供动力,为数据中心提供使用场景灵活性 [5] UMS100L - 专为直接液冷(DLC)机架、浸没式冷却罐和数据中心设施设计的机架级液冷管理系统,兼容各种行内冷却分配单元(CDU)和侧柜 [5] - 具备先进泄漏检测、实时监控和快速遏制能力,确保关键设备安全和数据中心数据驱动决策 [5]
NVIDIA, Alphabet and Google Collaborate on the Future of Agentic and Physical AI
Globenewswire· 2025-03-19 03:27
文章核心观点 NVIDIA、Alphabet和Google宣布新合作计划,推进人工智能发展,使人工智能工具普及化,加速实体人工智能开发,变革医疗、制造和能源等行业 [1][20] 分组1:合作总体情况 - 工程师和研究人员紧密合作,利用AI和模拟技术开发机器人、重塑药物发现、优化能源网格等 [2] - Google Cloud将率先采用NVIDIA GB300 NVL72和NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPU [3] - NVIDIA将率先采用Google DeepMind的SynthID技术 [3] 分组2:开发负责任的人工智能和开放模型 - Google DeepMind和NVIDIA通过内容透明度建立对生成式AI的信任 [5] - NVIDIA将成为SynthID的首个外部用户,保护知识产权 [6] - 双方合作优化Gemma模型,使其在NVIDIA GPUs上运行 [7] - 合作将扩展到通过Vertex AI优化基于Gemini的工作负载 [8] 分组3:智能机器人时代 - Intrinsic与NVIDIA合作,为Intrinsic Flowstate构建开发者工作流程,支持通用机器人抓取能力 [10] - Intrinsic将分享与NVIDIA Omniverse的OpenUSD框架流连接 [10] - NVIDIA、Google DeepMind与迪士尼研究合作开发开源物理引擎Newton [11] 分组4:将创新应用于现实挑战 - Isomorphic Labs利用AI重塑药物发现,借助Google Cloud和NVIDIA GPUs开发药物设计引擎 [12] - Tapestry与NVIDIA探索提高电网模拟速度和准确性的方法 [13] - 双方合作应对能源基础设施挑战,确保电网稳定性 [14] 分组5:下一代人工智能优化基础设施 - Google Cloud将率先提供NVIDIA Blackwell GPUs的最新实例 [15] - NVIDIA GB300 NVL72比NVIDIA GB200 NVL72的AI性能高1.5倍 [16] - Google Cloud和NVIDIA合作优化JAX和MaxText等开源框架 [18]
NVIDIA Blackwell Ultra AI Factory Platform Paves Way for Age of AI Reasoning
Globenewswire· 2025-03-19 02:34
文章核心观点 - 英伟达宣布推出下一代Blackwell AI工厂平台Blackwell Ultra,为AI推理时代铺平道路,可加速AI推理、代理AI和物理AI等应用 [1][15] 产品介绍 - Blackwell Ultra基于一年前推出的Blackwell架构,包括GB300 NVL72机架级解决方案和HGX™ B300 NVL16系统 [2] - GB300 NVL72连接72个Blackwell Ultra GPU和36个基于Arm Neoverse的Grace™ CPU,AI性能比GB200 NVL72高1.5倍,相比基于Hopper™构建的AI工厂,将Blackwell的营收机会提高50倍 [2][3] - HGX B300 NVL16在大语言模型上的推理速度比Hopper一代快11倍,计算能力高7倍,内存大4倍,为复杂工作负载提供突破性性能 [5] 应用场景 - Blackwell Ultra平台适用于AI推理、代理AI和物理AI等应用,代理AI可自主解决复杂多步骤问题,物理AI可实时生成合成逼真视频用于机器人和自动驾驶汽车训练 [1][17] 技术支持 - Blackwell Ultra系统与Spectrum-X™以太网和Quantum-X800 InfiniBand平台无缝集成,每个GPU数据吞吐量达800 Gb/s,提供一流的远程直接内存访问能力 [6] - BlueField® - 3 DPUs支持多租户网络、GPU计算弹性、加速数据访问和实时网络安全威胁检测 [7] 合作伙伴与可用性 - 预计2025年下半年起,Cisco、Dell Technologies等众多合作伙伴将推出基于Blackwell Ultra的服务器,亚马逊、谷歌等云服务提供商和GPU云提供商将率先提供相关实例 [8][9] 软件创新 - 英伟达Dynamo开源推理框架可扩展推理AI服务,提高吞吐量、减少响应时间和模型服务成本,最大化AI工厂的代币收入 [10][11] - Blackwell系统适用于运行新的Llama Nemotron Reason模型和AI - Q蓝图,由AI Enterprise软件平台支持,该平台包含NIM™微服务等 [12] - Blackwell平台基于英伟达强大的开发工具生态系统、CUDA - X™库、超600万开发者和4000 +应用程序 [13]