Microsoft Foundry服务
搜索文档
微软AI芯片Maia时隔两年上新,号称性能超亚马逊Trainium
第一财经· 2026-01-27 10:43
微软发布第二代AI芯片Maia 200 - 公司于当地时间1月26日宣布推出第二代人工智能芯片Maia 200 [3] - Maia 200采用台积电3纳米工艺制造,每颗芯片包含超过1400亿个晶体管 [3] - 该芯片为大规模AI工作负载量身打造,兼顾高性价比,是公司迄今为止部署的最高效推理系统 [3] - 其每美元性能比公司目前部署的最新一代硬件提升了30% [3] - Maia 200的FP4性能是第三代Amazon Trainium的3倍 [3] Maia 200的部署与应用 - 芯片已部署在位于爱荷华州得梅因附近的美国中部数据中心区域 [3] - 接下来将部署在位于亚利桑那州凤凰城附近的美国西部3数据中心区域,未来还将部署更多区域 [3] - 公司超级智能团队将利用Maia 200进行合成数据生成和强化学习,以改进下一代内部模型 [3] - 该芯片还将应用于构建AI模型的Microsoft Foundry服务和面向商业生产力软件套装的Microsoft 365 Copilot服务 [4] 公司自研AI芯片的战略与背景 - 距离公司发布第一代AI芯片Maia 100已过去两年,Maia 100采用台积电5纳米工艺 [5] - 公司CEO萨蒂亚·纳德拉提及自研芯片逻辑,计划在自身MAI模型和芯片之间建立闭环,根据需求设计微架构并不断更新模型 [5] - 公司持续押注人工智能,2026财年第一财季资本支出达到349亿美元,创下纪录,高于此前预期的超过300亿美元 [5] - 约一半的资本支出用于短期资产,主要是采购GPU和CPU,以支持不断增长的Azure平台需求和AI解决方案 [6] - 剩余支出用于长期资产,以支持未来15年及更长时间的盈利,其中包括111亿美元的融资租赁,主要用于大型数据中心 [6] 公司AI投资与用户规模 - 公司CEO表示将继续加大对AI领域的投资,包括资金和人才,以把握未来机遇 [6] - 公司旗下所有产品中,人工智能功能的月活跃用户已达9亿 [6] - 随着需求加速增长,公司在GPU和CPU方面的支出也在增加,预计2026财年的资本支出增长率将高于2025财年 [6] 公司超级智能团队的定位 - 公司于去年11月成立超级智能团队,由穆斯塔法·苏莱曼领导,旨在实现人文主义超级智能 [3] - 此举旨在摒弃关于通用人工智能竞赛的叙事,将其视为一项更广泛、更深刻的人类事业,用于改善人类生活和未来前景 [3] - 该团队目前关注AI助手、医疗和清洁能源三个领域 [3]
微软AI芯片Maia时隔两年上新,号称性能超亚马逊Trainium
第一财经资讯· 2026-01-27 10:27
微软推出第二代AI芯片Maia 200 - 公司推出第二代人工智能芯片Maia 200,采用台积电3纳米工艺制造,每颗芯片包含超过1400亿个晶体管,专为大规模AI工作负载打造[1] - Maia 200是公司迄今为止部署的最高效推理系统,其每美元性能比公司目前部署的最新一代硬件提升了30%[1] - Maia 200的FP4性能是第三代Amazon Trainium的3倍[1] Maia 200的部署与应用 - Maia 200已部署在爱荷华州得梅因附近的美国中部数据中心区域,接下来将部署在亚利桑那州凤凰城附近的美国西部3数据中心区域,未来还将部署更多区域[1] - 公司超级智能团队将利用Maia 200进行合成数据生成和强化学习,以改进下一代内部模型[2] - Maia 200还将应用于构建AI模型的Microsoft Foundry服务和面向商业生产力软件套装的Microsoft 365 Copilot服务[2] 公司自研芯片战略与历史 - 公司CEO提及自研芯片逻辑,计划在自身MAI模型和芯片之间建立闭环,根据自身需求设计微架构并不断更新模型[3] - 距离公司发布第一代AI芯片Maia 100已过去两年,Maia 100采用台积电5纳米工艺,旨在为OpenAI模型、Bing、GitHub Copilot和ChatGPT等AI工作负载运行基于云的训练和推理[2] 公司对AI的资本投入与用户规模 - 据公司2026财年第一财季财报,该季度资本支出达到349亿美元,创下纪录,高于此前预期的超过300亿美元[5] - 约一半的资本支出用于短期资产,主要是采购GPU和CPU,以支持不断增长的Azure平台需求和AI解决方案,剩余支出用于支持未来15年及更长时间盈利的长期资产,其中包括111亿美元的融资租赁,主要用于大型数据中心[6] - 公司旗下所有产品中,人工智能功能的月活跃用户已达9亿[6] 公司未来投资展望 - 公司CEO表示将继续加大对人工智能领域的投资,包括资金和人才,以把握未来机遇[6] - 随着需求加速增长,公司在GPU和CPU方面的支出也在增加,预计总支出将环比增长,且2026财年的增长率将高于2025财年[6]
微软发布3nm芯片,1400亿晶体管
半导体行业观察· 2026-01-27 09:26
文章核心观点 - 微软正式发布其新一代自研人工智能推理加速器Maia 200,旨在挑战英伟达、亚马逊和谷歌在AI芯片领域的领先地位,并提升其云服务在AI工作负载上的性价比和效率 [1][5][19] 产品发布与定位 - Maia 200是微软首款专为应对AI性能挑战而设计的芯片,定位为“突破性的推理加速器” [4][5][15] - 该芯片是微软迄今为止部署的“最高效的推理系统”,其每美元性能比公司目前部署的最新一代硬件高出30% [2][5][19] - 与上一代Maia 100相比,Maia 200的FP8/MXInt8性能约为其3倍,标志着性能的显著跃升 [18] 技术规格与性能 - **制造工艺**:采用台积电先进的3纳米工艺制造,每颗芯片包含超过1400亿个晶体管 [7][15] - **计算性能**:在4位精度(FP4)下可提供超过10,145 TFLOPS(10.145 PFLOPS)的性能,在8位精度(FP8)下可提供超过5,072 TFLOPS(5.072 PFLOPS)的性能 [7][11] - **内存系统**:配备216GB的HBM3e高带宽内存,读写速度高达7TB/s,并拥有272MB的片上SRAM,以解决数据输入瓶颈 [5][9][15] - **功耗**:热设计功耗(TDP)为750瓦 [7][15] - **扩展能力**:通过基于标准以太网的新型双层可扩展网络设计,最多可将6,144个Maia 200芯片连接成集群,实现高性能计算 [2][11][12][16] 竞争优势对比 - **对比亚马逊**:Maia 200的FP4性能是亚马逊AWS第三代Trainium芯片(2,517 TFLOPS)的3倍以上 [5][11][19] - **对比谷歌**:Maia 200的FP8性能(5,072 TFLOPS)超越谷歌第七代TPU(4,614 TFLOPS) [5][11][19] - **内存优势**:每个Maia 200芯片拥有比AWS Trainium3(144GB)和谷歌TPU v7(192GB)更大的高带宽内存容量(216GB) [2][11] 应用与部署计划 - **内部应用**:将由Mustafa Suleyman领导的超级智能团队用于合成数据生成和强化学习,以改进下一代内部模型 [1][6] - **云服务与产品**:将用于支持Microsoft 365 Copilot、Microsoft Foundry服务,并运行包括OpenAI最新GPT-5.2在内的多种模型 [1][6][19] - **部署进展**:已部署在美国中部(爱荷华州)数据中心,接下来将部署在美国西部3区(亚利桑那州),并计划扩展到更多区域 [2][6] - **开发者生态**:提供Maia SDK预览版,包含PyTorch集成、Triton编译器、优化内核库等工具,方便开发者构建和优化模型 [1][7] 系统设计与集成优势 - **端到端优化**:公司在芯片上市前通过高保真模拟环境,将芯片、网络和系统软件作为整体进行优化,缩短了从芯片到数据中心部署的时间 [14] - **无缝集成**:芯片与Azure云平台原生集成,支持在风冷和水冷环境下运行,并能与第三方GPU集群在同一数据中心和谐共存,简化了部署和维护 [14][19] - **网络架构**:采用定制传输层和紧密集成的网卡,基于标准以太网实现高带宽、低延迟通信,无需依赖InfiniBand等专有架构 [2][11][16]