微软推出第二代自研AI芯片Maia 200 - 微软重磅推出由台积电3nm制程制造的第二代自研AI芯片Maia 200,旨在为云端AI训练/推理提供高能效比与性价比的算力基础设施,作为英伟达AI GPU的替代方案[1] - Maia 200在多项测试中性能超越亚马逊第三代Trainium和谷歌第七代TPU,被微软官方称为“所有超大规模云计算服务商中性能最强的自研内部专属AI芯片”[3] - 该芯片每美元性能比微软当前最新一代硬件提升30%,在FP4精度下的整体推理性能是亚马逊第三代Trainium的三倍,FP8性能超过谷歌第七代TPU[5] Maia 200的技术规格与性能 - Maia 200采用台积电3nm工艺,包含超过1400亿个晶体管,在750瓦功耗下,FP4精度算力超过10 petaFLOPS,FP8精度算力超过5 petaFLOPS[5][6] - 芯片配备216GB、带宽达7TB/s的HBM3e存储以及272MB的片上SRAM,每块芯片提供2.8TB/s的双向专用扩展带宽,支持在6144个加速器集群中实现高性能集合操作[6] - 微软已向开发者开放Maia 200软件开发工具包的预览版,并计划未来向更多客户开放云端服务器租用,该芯片将用于支持微软下一代AI大模型训练、企业版Copilot及托管型AI推理服务[3][5] 云计算巨头加速自研AI ASIC芯片 - 生成式AI热潮推动亚马逊、谷歌、微软等云计算巨头加速开发内部专属的AI ASIC芯片,以打造更具成本效益和能效的算力基础设施[2] - 经济性与电力约束是推动科技巨头自研AI ASIC的核心动力,旨在优化“单位Token成本、单位瓦特产出”,应对AI数据中心不断增长的能耗需求[7] - 自研AI ASIC能为云计算巨头提供“第二曲线产能”,在采购谈判、产品定价与云计算服务毛利层面获得更大主动权,并实现从芯片到软件的一体化设计,提高算力利用率并降低总拥有成本[8] AI ASIC在推理侧的优势与行业趋势 - 相比于英伟达AI GPU,AI ASIC在云端AI推理算力需求猛增的背景下,凭借更高的性价比和能效比优势,正迈入更强劲的需求扩张轨迹[9] - AI推理侧更看重单位token成本、延迟与能效,谷歌将其最新TPU Ironwood定位为“为AI推理时代而生”的专用芯片,并强调性能、能效与性价比[10] - 谷歌TPU v7 (Ironwood) 的BF16算力高达4614 TFLOPS,是上一代TPU v5p(459 TFLOPS)的十倍,针对特定应用,其架构可提供比英伟达Blackwell高出1.4倍的每美元性能[9] 行业竞争格局与市场影响 - 英伟达面临来自云计算巨头自研AI ASIC的竞争压力,正通过多架构AI算力、巩固CUDA生态及引进人才(如与Groq合作)来维持其在AI芯片领域约90%的市场份额[11] - 摩根士丹利研报显示,谷歌TPU芯片的实际产量预期被大幅上修,2027年和2028年将分别达到500万和700万块,较此前预期分别上修67%和120%[12] - 报告测算,谷歌每对外销售50万片TPU,便有望带来130亿美元的额外营收以及0.40美元的每股收益,这可能预示着谷歌将开启TPU AI芯片的直接对外销售[12]
微软新一代自研AI芯片“Maia 200”出鞘!推理狂潮席卷全球,属于AI ASIC的黄金时代到来