Workflow
云端算力竞赛新突破:创纪录英伟达GB200参与MLPerf测试,性能提升超两倍
英伟达英伟达(US:NVDA) 硬AI·2025-06-05 18:32

MLPerf Training v5.0测试结果 - CoreWeave联手英伟达和IBM使用2496块GB200 Blackwell芯片构成MLPerf史上最大规模的GB200 NVL72集群[1][2] - 该集群在Llama 3.1 405B模型训练中仅用27.3分钟完成流程,性能较相似规模集群提升超两倍[1][3] - 测试规模比此前云服务商提交结果大34倍,凸显CoreWeave云平台对严苛AI工作负载的适配能力[2][3] GB200 NVL72架构性能表现 - GB200 NVL72集群在最大规模测试中实现显著性能飞跃,体现架构优势[3] - CoreWeave称其专门构建的云平台具备AI工作负载所需的规模、性能和可靠性[3] MLPerf Training v5.0行业动态 - 本轮测试引入Llama 3.1 405B作为最大新基准模型,替代此前GPT3基准[5] - 收到来自20家机构的201项提交创纪录,行业参与度创新高[5][6] - 首次参与机构包括AMD、IBM等,联想提交首组功耗基准测试反映能效关注度提升[6] 测试模型与技术细节 - MLPerf Inference v5.0通过更新模型和场景保持衡量标准有效性[5] - Llama 3.1 405B基准提交量已超此前GPT3测试,显示大规模训练需求增长[5]