行业竞争态势 - 英伟达正面临来自谷歌TPU和亚马逊Trainium等竞争对手的挑战,为巩固其AI芯片市场主导地位展开了一系列密集的技术“自证”与公开回应 [1] - 谷歌TPU直接挑战了英伟达在AI芯片市场超过90%的份额,关键客户Meta正考虑在其数据中心大规模采用谷歌自研的AI芯片TPU [6] - 市场担心,如果Meta这样超大规模客户开始转向谷歌,将意味着英伟达坚不可摧的护城河出现了缺口 [6] 公司近期动态与市场反应 - 公司近期通过私函反驳看空观点、公开宣称其GPU技术“领先行业一代”,并发布技术博文强调其GB200 NVL72系统的性能优势 [1] - 英伟达密集发声并未改善市场担忧,公司股价近一个月跌幅已接近10% [6] GB200 NVL72系统技术优势 - 英伟达发文称GB200 NVL72系统能够将顶级开源AI模型的性能提升多达10倍 [1] - 该系统将72颗NVIDIA Blackwell GPU集成为一个整体,提供1.4 exaflops的AI性能和30TB的快速共享内存,通过NVLink Switch连接,系统内部GPU间通信带宽达到130TB/s [10] - 在性能测试中,被Artificial Analysis排行榜评为最智能开源模型的Kimi K2 Thinking在GB200 NVL72系统上实现了10倍性能提升,DeepSeek-R1和Mistral Large 3等其他顶级MoE模型同样获得显著性能改善 [10] 对混合专家模型(MoE)的优化 - 英伟达重点强调了其服务器系统对混合专家模型(MoE)的优化能力,这些模型包括中国初创公司月之暗面开发的Kimi K2 Thinking和DeepSeek的R1模型 [1] - Artificial Analysis排行榜前10名的开源模型均采用MoE架构,包括DeepSeek-R1、Kimi K2 Thinking和Mistral Large 3等 [11] - 公司强调,其系统通过硬件和软件的协同设计,解决了MoE模型在生产环境中的扩展难题,有效消除了传统部署中的性能瓶颈 [11] 市场部署与合作进展 - GB200 NVL72系统正被主要云服务提供商和英伟达云合作伙伴部署,包括亚马逊云服务、Core42、CoreWeave、Crusoe、谷歌云、Lambda、微软Azure、Oracle云基础设施和Together AI等 [12] - CoreWeave表示其客户正在利用其平台将专家混合模型投入生产,通过与英伟达的密切合作,能够提供紧密集成的平台 [12] - Fireworks AI已在英伟达B200平台上部署Kimi K2模型,在Artificial Analysis排行榜上实现最高性能表现,并指出GB200 NVL72的机架规模设计为大规模MoE模型服务设立了新的性能和效率标杆 [12]
迎战TPU与Trainium?英伟达再度发文“自证”:GB200 NVL72可将开源AI模型性能最高提升10倍