微软发布自研AI芯片Maia 200 - 微软正式发布其下一代自研AI芯片Maia 200,该芯片原定于2025年发布 [1][2] - Maia 200是一款强大的AI推理加速器,旨在显著改善AI token生成的经济性 [4] 芯片性能与规格 - Maia 200基于台积电的3纳米工艺打造,单颗芯片包含超过1400亿个晶体管 [4][14] - 芯片配备原生FP8/FP4张量核心、重新设计的内存系统,拥有216GB HBM3e内存、7TB/s带宽以及272MB片上SRAM [4] - 在750W的热设计功耗范围内,单颗芯片可提供超过10 PetaFLOPS的FP4性能和超过5 PetaFLOPS的FP8性能 [14] - 其FP4性能是第三代Amazon Trainium的三倍,FP8性能超越了谷歌第七代TPU [4] - 该芯片是微软迄今为止最高效的推理系统,每美元性能比公司当前集群中的最新一代硬件提升了30% [5] 系统架构与设计优势 - Maia 200通过重新设计的内存子系统解决数据传输瓶颈,配备专门的DMA引擎、片上SRAM和专用的片上网络总线,以提升Token吞吐量 [17] - 在系统层面,引入基于标准以太网的新型两层Scale-up网络设计,通过定制传输层和紧密集成的网卡,实现高性能、高可靠性和成本优势 [20] - 每个加速器可提供2.8 TB/s的双向专用Scale-up带宽,并在包含多达6,144个加速器的集群中实现可预测的高性能集合通信 [21][26] - 该架构为密集型推理集群提供了可扩展的性能,同时降低了功耗和Azure全球机架的整体拥有成本 [21] 应用与部署 - Maia 200是微软异构AI基础设施的重要组成部分,将为包括OpenAI最新GPT-5.2在内的多个大模型提供支持 [7] - 该芯片将为Microsoft Foundry和Microsoft 365 Copilot带来更高的性价比优势 [7] - 微软超级智能团队将利用Maia 200进行合成数据生成和强化学习,以提升下一代自研模型的性能 [7] - 芯片已部署在爱荷华州德梅因附近的美国中部数据中心区域,接下来将部署在亚利桑那州菲尼克斯附近的美国西部3区域,未来还将扩展至更多地区 [7] 开发与集成 - Maia 200与Azure实现了无缝集成,微软正在开放Maia SDK的预览,该SDK提供了一整套用于构建和优化Maia 200模型的工具 [7] - 微软采用云原生开发模式,在芯片设计阶段便同步开展对后端网络及第二代闭环液冷换热单元等复杂系统组件的早期验证 [25] - 通过与Azure控制平面的原生集成,系统在芯片和机架层面实现了安全性、遥测、诊断及管理能力的全面覆盖 [25] - 得益于端到端的开发方法,从首颗芯片到首个数据中心机架部署的时间缩短了一半以上,优于同类AI基础设施项目 [25] 行业背景与公司战略 - 大规模AI时代开启,基础设施将决定创新的边界,微软表示Maia AI加速器计划是跨代发展的 [28] - 在部署Maia 200的同时,公司已经在设计未来几代产品,并期待每一代都能不断树立新标杆 [28] - 根据行业数据,NVIDIA芯片的总算力存量正以每年2.3倍的速度增长 [11] - 微软的Fairwater Atlanta数据中心拥有约500,000 H100等效算力,由600兆瓦电力支持,资本支出达200亿美元 [11]
刚刚,微软全新一代自研AI芯片Maia 200问世