迎战TPU与Trainium?英伟达再度发文“自证”:GB200 NVL72可将开源AI模型性能最高提升10倍
英伟达英伟达(US:NVDA) 硬AI·2025-12-04 20:54

文章核心观点 - 英伟达近期通过发布技术博文等一系列密集的“自证”行动,旨在回应市场对其AI芯片市场主导地位可能受到挑战的担忧,并展示其最新GB200 NVL72系统在提升开源AI模型性能方面的显著优势 [2][5] GB200 NVL72系统的技术优势与性能 - 英伟达GB200 NVL72系统可将顶尖开源AI模型的性能最高提升10倍,在测试中使Kimi K2 Thinking模型实现了10倍性能提升 [2][9] - 该系统将72颗Blackwell GPU集成为一体,提供1.4 exaflops的AI算力和30TB的快速共享内存,GPU间通信带宽高达130TB/s [9] - 该系统通过硬件与软件的协同设计,解决了混合专家模型在生产环境中的扩展难题,消除了传统部署的性能瓶颈 [2][10] 混合专家模型的行业地位与英伟达的优化 - 混合专家模型已成为前沿AI主流选择,Artificial Analysis排行榜前10名的开源模型均采用MoE架构,包括DeepSeek-R1、Kimi K2 Thinking等 [10] - MoE架构模仿人脑,仅激活处理特定任务所需的专家模块,能在不显著增加计算成本的情况下实现更快速、高效的token生成 [10] - 英伟达的系统专门针对MoE模型进行了优化,以应对其扩展挑战 [10] 市场竞争背景与英伟达的回应 - 英伟达正面临来自谷歌TPU和亚马逊Trainium等竞争对手的挑战,其AI芯片市场份额超过90% [5] - 市场担忧其关键客户Meta考虑大规模采用谷歌TPU,这可能意味着英伟达的市场护城河出现缺口 [5] - 尽管公司近期密集发声,但市场担忧未明显改善,其股价近一个月跌幅已接近10% [6] GB200 NVL72系统的市场部署进展 - 该系统正被主要云服务提供商和英伟达云合作伙伴部署,包括亚马逊云服务、谷歌云、微软Azure、Oracle云基础设施等 [12] - CoreWeave表示正与英伟达紧密合作,为客户提供紧密集成的平台以将MoE模型投入生产 [12] - Fireworks AI已在英伟达B200平台上部署Kimi K2模型,并指出GB200 NVL72的机架规模设计为大规模MoE模型服务设立了新的性能和效率标杆 [12]