云端算力竞赛新突破:创纪录英伟达GB200参与MLPerf测试,性能提升超两倍
MLPerf Training v5.0测试结果 - CoreWeave联手英伟达和IBM使用2496块GB200 Blackwell芯片构成MLPerf基准测试中规模最大的英伟达GB200 NVL72集群 [1][2] - 该集群在Llama 3.1 405B基础模型训练中仅用27.3分钟完成整个流程 相比相似规模集群测试结果训练性能提升超过两倍 [1][3] - 这一规模比之前唯一来自云服务商的提交结果大34倍 [2] GB200 NVL72集群性能表现 - 测试结果凸显GB200 NVL72架构带来的显著性能飞跃 [3] - CoreWeave云平台具备专门构建的规模、性能和可靠性 能够满足严苛AI工作负载需求 [2][3] - 公司首席技术官表示其平台具备AI工作负载所需的规模、性能和可靠性 [3] MLPerf Training v5.0测试概况 - 本轮测试包含创纪录的201项性能测试结果 来自20个提交机构 [5][6] - 引入了新的Llama 3.1 405B大语言模型预训练基准测试 替代之前基于GPT3的基准 [5] - Llama 3.1 405B基准测试提交数量已超过前几轮基于GPT3的测试 [5] 行业参与情况 - 参与机构包括AMD、华硕、思科、CoreWeave、戴尔科技等20家 [6] - 首次提交测试的机构包括AMD、IBM、MangoBoost、Nebius和SCITIX [6] - 联想提交了首组功耗基准测试 反映AI训练系统能效问题日益严峻 [6]