微软(MSFT.US)新一代自研AI芯片“Maia 200”出鞘! 推理狂潮席卷全球 属于AI ASIC的黄金时代到来
微软微软(HK:04338) 智通财经网·2026-01-27 08:34

微软推出自研AI芯片Maia 200 - 微软重磅推出第二代自研AI芯片Maia 200,旨在为云端AI训练/推理提供更高能效比与性价比的算力,作为英伟达AI GPU的替代方案 [1] - 该芯片由台积电采用3nm先进制程制造,每颗芯片包含超过1400亿个晶体管 [5] - Maia 200专为大规模AI推理定制,在FP4精度下提供超过10 petaFLOPS算力,在FP8精度下提供超过5 petaFLOPS性能,功耗为750瓦 [5] - 芯片配备216GB、带宽达7TB/s的HBM3e内存,以及272MB片上SRAM,系统层面支持在6144个加速器集群中提供高性能集合操作 [6] Maia 200的性能与定位 - 微软官方称Maia 200为“所有超大规模云计算服务商中性能最强的自研内部专属AI芯片” [3] - 在多项测试中,其性能超越亚马逊第三代Trainium和谷歌第七代TPU [3] - 该芯片每美元性能比微软当前最新一代硬件提升30% [5] - 在FP4精度下的整体推理性能是亚马逊第三代Trainium的3倍,FP8性能超过谷歌第七代TPU [5] - 微软将其定位为“显著改善AI token generation的经济性”,并强调performance per dollar [10] 行业趋势:云计算巨头转向自研AI ASIC - 生成式AI热潮加速了亚马逊、谷歌、微软等云计算巨头开发内部专属AI ASIC芯片的进程 [2] - 经济性与电力约束是推动这一趋势的核心原因,巨头们旨在打造更具性价比与能效比的AI算力集群 [9] - 自研AI ASIC能提供“第二曲线产能”,帮助云厂商在采购谈判、产品定价与服务毛利层面更主动,并降低总体拥有成本 [10] - 芯片设计公司如博通、迈威尔、联发科正聚焦于与云巨头合作开发定制化AI ASIC,该业务已成为其重要增长点 [2] 市场竞争格局 - 云计算“三巨头”(亚马逊AWS、谷歌GCP、微软Azure)均在推进自研AI芯片,目标相似:打造高成本效益、无缝接入数据中心的算力基础设施 [4] - 英伟达AI GPU的高成本与持续供给短缺,推动了市场寻找更廉价且高效的替代算力来源 [4] - 谷歌最新的TPU v7 (Ironwood) 展现代际跨越,其BF16算力达4614 TFLOPS,是上一代TPU v5p(459 TFLOPS)的约10倍 [11] - 针对特定应用,AI ASIC架构更具性价比与能效比优势,例如谷歌TPU集群能提供比英伟达Blackwell高出1.4倍的每美元性能 [11] - 英伟达与AI芯片初创公司Groq达成200亿美元非独家授权合作,以维持其在AI芯片领域约90%的市场份额主导权 [13] 产品部署与未来规划 - Maia 200正陆续进入微软位于爱荷华州的数据中心,下一步大规模部署将转向凤凰城地区 [1] - 首批芯片设备将提供给微软的超级智能团队,用于改进下一代AI大模型,并为Copilot AI助手及托管型AI推理服务提供算力支撑 [3] - 微软已向开发者、学术界和前沿AI实验室开放Maia 200软件开发工具包的预览版,并计划未来向更多客户开放云端租用 [5] - 微软已在着手设计下一代AI芯片Maia 300 [8] - 根据与OpenAI的协议,微软可以获取后者的独家自研AI芯片设计方案作为备选 [8] 市场需求与行业前景 - 谷歌Gemini3 AI应用生态发布后带来庞大AI token处理量,导致算力需求激增,验证了AI算力基础设施仍处于供不应求的早期建设阶段 [12] - 摩根士丹利研报显示,谷歌TPU AI芯片的实际产量预期被大幅上修,2027年和2028年预计分别达到500万和700万块,较此前预期分别上调67%和120% [13] - 报告测算,谷歌若对外销售TPU,每50万片有望带来130亿美元的额外营收及0.40美元的每股收益 [13] - 随着AI推理需求猛增,更具性价比优势的AI ASIC预计将迈入比2023-2025年期间更强劲的需求扩张轨迹 [11]