Workflow
Maia 100
icon
搜索文档
微软这颗芯片,撼动英伟达?
半导体行业观察· 2026-01-29 09:15
微软Maia AI加速器战略背景 - 微软是OpenAI模型的最大用户及构建GPT模型的最大计算合作伙伴,这为其打造更强大的Maia AI加速器提供了双重动力[2] - 大型云服务商及主要GenAI模型开发商(如OpenAI、Anthropic、Meta)均在开发定制AI XPU,以降低生成式AI推理的单代币成本[2] - 人工智能推理预计所需计算能力将比训练高出一个数量级,为超过一百家人工智能计算引擎初创公司创造了市场机会[2] 云服务商自研芯片的行业逻辑 - 微软等云服务商希望掌控自身硬件资源,同时保留通用x86 CPU及英伟达/AMD GPU以满足客户租用需求[3] - 云服务商通过自研计算引擎并以低于第三方产品的价格竞争,旨在减少对传统芯片供应商的依赖[3] - 类似逻辑也适用于亚马逊AWS、谷歌、百度、阿里巴巴、腾讯等自行设计CPU和XPU的公司[3] - Meta Platforms虽非严格意义上的基础设施云,但通过出租硬件运行Llama模型API,正成为面向主权国家的GenAI平台云[3] Maia 100 (Athena) 芯片设计与性能 - 芯片发布于2023年11月,设计初衷是支持AI训练和推理,并专门用于运行OpenAI的GPT模型[4] - 芯片采用台积电5纳米工艺,面积820平方毫米,晶体管数量1050亿个[12] - 计算引擎包含64个核心(推测良率下有效核心数可能为52-56个),运行频率约2.86 GHz[12] - 芯片上L1/L2缓存总容量约500MB,SRAM带宽估计为132 TB/秒[12] - 配备4组HBM2E内存,总容量64GB,带宽1.8 TB/秒[12] - 每个核心的张量单元支持微软特有的MX6(6位)和MX9(9位)数据格式[13] - 互连I/O带宽为12个400 Gb/s端口,总计4,800 Gb/s(600 GB/s)[14] - 网络设计支持构建包含576个节点、总计2304个计算引擎的集群域[19] - 芯片峰值热设计功耗(TDP)为700瓦,持续功耗为500瓦[20] Maia 200 (Braga) 芯片的升级与改进 - 芯片于2026年1月发布,专门针对AI推理任务,简化了设计[5] - 采用台积电N3P(3纳米高性能版)工艺,面积836平方毫米,晶体管数量1440亿个[21] - 核心数量增至96个,良率约92%,主流产品预计有88个可用核心[20][22] - 运行频率提升至3.10 GHz[20] - L1/L2缓存SRAM容量降至272MB,SRAM带宽降至80 TB/秒[20] - HBM内存升级为6组HBM3E,总容量216GB,带宽大幅提升至7 TB/秒[20][22] - 后端网络带宽提升至56个400 Gb/s端口,总计22.4 Tb/s(2.8 TB/s)[20][21] - 主机互连升级为PCI-Express 5.0 x16,带宽64 GB/秒[20] - 集群相干域规模扩大,支持最多1536个节点和6144个计算引擎[19][20] - 性能方面,FP4精度达10.15 petaflops,FP8精度达5.07 petaflops,BF16精度达1.27 petaflops[20][24] - 持续热设计功耗(TDP)为750瓦[20] - 张量单元仅支持FP4和FP8格式,向量单元支持BF16和FP32,不再支持Maia 100特有的MX6/MX9格式[13] Maia 200的部署与应用 - 首批Maia 200机架已部署在美国中部的Azure云区域(爱荷华州得梅因),美国西部3区域(亚利桑那州凤凰城)也将跟进[26] - 微软将使用Maia 200计算引擎为OpenAI GPT-5.2大型语言模型提供推理服务,驱动Microsoft Foundry AI平台及Office 365 Copilot[26] - 微软的AI研究人员还将使用Maia 200生成合成数据,用于训练内部模型[26] - 目前尚未有关于Azure何时会提供基于Maia 200的虚拟机实例供租用的消息[26]
2026年度投资策略:把握AI创新,找寻价值扩张方向
国联民生证券· 2026-01-28 23:40
核心观点 - 报告认为,2026年电子行业投资应把握AI创新主线,核心在于观察云服务提供商及大模型厂商的商业闭环节奏,以把握行业整体β,同时积极寻找价值量扩张、资本开支增量倾斜的细分赛道,投资主线延续“速率+功率” [1][9][10] - 报告提出,算力需求的核心变量在于Token数量与资本开支,其中Token反映实时算力需求,资本开支反映未来算力预期,部分厂商如谷歌已形成“开支→算力→Token→收入→再开支”的正向商业循环 [1][10][15] - 报告建议,在当前市场对AI远期增量有所担忧之际,应重点关注国产算力、半导体设备、存储、AI终端的投资机遇 [2][12] 行业趋势与市场分析 - **资本开支高速增长**:AI投资驱动下,北美五大云厂商资本开支进入加速扩张周期,2025年前三季度合计达3081亿美元,同比增长75% [24][27] - **Token成为核心商业单位**:大模型的主流商业模式均以Token为核心定价单位,实现了“智能”与“算力”的标准化货币兑换,OpenRouter数据显示,在2025年12月22日至29日期间,谷歌的Token使用量市场份额占比达23.1% [15][16] - **主权AI成为重要增量**:全球多国启动主权AI项目以保障技术自主可控,例如美国“星际之门”项目总投资规划达5000亿美元,欧盟“人工智能大陆行动计划”拟投入2000亿欧元,沙特阿拉伯计划打造500兆瓦的超级算力集群 [25][76][80] 海外算力投资主线:“速率+功率” - **速率赛道**:聚焦解决互联瓶颈,包括光通信和PCB的升级 [2][116] - **光通信**:需把握光入柜内趋势,关注光模块业绩、光芯片缺货潮、硅光渗透率提升,以及超节点技术带来的光交换等产业趋势 [2][120] - **PCB**:技术升级是核心焦点,英伟达推出的全新PCB解决方案采用M9等级基材、HVLP4铜箔与石英纤维布构建的正交背板方案成为趋势,将同步拉动材料和设备升级 [2][4][120] - **功率赛道**:应对功耗提升带来的供电及温控挑战 [2][116] - **电源**:单卡和机柜功率密度持续提升,对电力架构提出新要求,高压直流成为未来柜外电源的趋势 [2][5][121] - **液冷**:伴随芯片功率提高,液冷成为数据中心标配,正实现从0到1的产业趋势突破 [2][5][121] 主要云厂商与算力芯片发展 - **谷歌**:在商业闭环上表现领先,其自研TPU显著降低了AI投资成本,3Q25资本开支/经营现金流比率为49%,投入产出效率高,已形成资本开支、Token增长与业绩兑现的正循环 [27][40][69][71] - **微软**:依托Office、Windows等原生应用生态,将AI算力投入转化为生态粘性与用户平均收入提升,形成了“应用生态→算力需求→资本开支→生态强化”的飞轮式正循环 [48] - **亚马逊**:作为全球最大云厂商,正通过自研Trainium系列芯片加速追赶,Trainium3采用3纳米工艺,FP8算力达2.52 PFLOPs,性能较Trainium2提升约4.4倍 [55][56][102] - **Meta**:资本开支专注于内部项目,2025年前三季度增速达112%,在五大厂商中最快,通过开源模型与自研MTIA ASIC芯片,旨在重塑行业推理成本体系 [28][57] - **英伟达产品迭代**:加速卡从H系列向B系列和R系列升级,服务器机柜从8卡向72卡、576卡升级,带动算力密度快速提升,Rubin系列预计于2026年下半年开始出货 [87][89] - **ASIC自研趋势**:云厂商为降低成本并提升灵活性,加速自研AI芯片,预计将成为未来AI芯片增量的核心来源,谷歌TPU v7、亚马逊Trainium3、Meta MTIA v2、微软Maia 100等产品持续迭代 [97][98] 国产算力发展 - **迎来破局元年**:2025年为国产算力破局之年,2026年有望高速成长,行业呈现供需两强的格局 [2] - **需求侧积极**:国产大模型加速追赶,云厂商资本开支展望积极 [2][6] - **供给侧突破**:国产先进制程从单点突破走向多点开花,在晶圆厂、先进封装、算力芯片等领域技术迭代加速,国产替代格局明晰 [2][7] 其他细分赛道机遇 - **半导体存储**:AI驱动存储行业迎来超级周期 [2][8] - **半导体设备**:受益于存储上行周期及原厂扩产 [2][8] - **消费电子与AI终端**:关注AI手机及华米OV、OpenAI、Meta等行业龙头在新型AI终端上的探索 [2][9] 重点公司分析 (工业富联) - **行业地位**:作为AI算力垂直整合领军者,是英伟达GB200的机柜级集成供应商,并与OpenAI达成合作,共同打造AI数据中心机架 [111] - **业绩表现**:深度参与全球AI算力产业链,2025年前三季度营收突破6000亿元人民币,同比增长38%;净利润同比增长48%,其中云计算业务营收同比增长65%,云服务商业务营收同比增速超过150%,GPU AI服务器同比增速超过300% [114]
微软AI芯片Maia时隔两年上新,号称性能超亚马逊Trainium
第一财经· 2026-01-27 10:43
微软发布第二代AI芯片Maia 200 - 公司于当地时间1月26日宣布推出第二代人工智能芯片Maia 200 [3] - Maia 200采用台积电3纳米工艺制造,每颗芯片包含超过1400亿个晶体管 [3] - 该芯片为大规模AI工作负载量身打造,兼顾高性价比,是公司迄今为止部署的最高效推理系统 [3] - 其每美元性能比公司目前部署的最新一代硬件提升了30% [3] - Maia 200的FP4性能是第三代Amazon Trainium的3倍 [3] Maia 200的部署与应用 - 芯片已部署在位于爱荷华州得梅因附近的美国中部数据中心区域 [3] - 接下来将部署在位于亚利桑那州凤凰城附近的美国西部3数据中心区域,未来还将部署更多区域 [3] - 公司超级智能团队将利用Maia 200进行合成数据生成和强化学习,以改进下一代内部模型 [3] - 该芯片还将应用于构建AI模型的Microsoft Foundry服务和面向商业生产力软件套装的Microsoft 365 Copilot服务 [4] 公司自研AI芯片的战略与背景 - 距离公司发布第一代AI芯片Maia 100已过去两年,Maia 100采用台积电5纳米工艺 [5] - 公司CEO萨蒂亚·纳德拉提及自研芯片逻辑,计划在自身MAI模型和芯片之间建立闭环,根据需求设计微架构并不断更新模型 [5] - 公司持续押注人工智能,2026财年第一财季资本支出达到349亿美元,创下纪录,高于此前预期的超过300亿美元 [5] - 约一半的资本支出用于短期资产,主要是采购GPU和CPU,以支持不断增长的Azure平台需求和AI解决方案 [6] - 剩余支出用于长期资产,以支持未来15年及更长时间的盈利,其中包括111亿美元的融资租赁,主要用于大型数据中心 [6] 公司AI投资与用户规模 - 公司CEO表示将继续加大对AI领域的投资,包括资金和人才,以把握未来机遇 [6] - 公司旗下所有产品中,人工智能功能的月活跃用户已达9亿 [6] - 随着需求加速增长,公司在GPU和CPU方面的支出也在增加,预计2026财年的资本支出增长率将高于2025财年 [6] 公司超级智能团队的定位 - 公司于去年11月成立超级智能团队,由穆斯塔法·苏莱曼领导,旨在实现人文主义超级智能 [3] - 此举旨在摒弃关于通用人工智能竞赛的叙事,将其视为一项更广泛、更深刻的人类事业,用于改善人类生活和未来前景 [3] - 该团队目前关注AI助手、医疗和清洁能源三个领域 [3]
Microsoft reveals second generation of its AI chip in effort to bolster cloud business
CNBC· 2026-01-27 00:00
公司战略与产品发布 - 微软宣布了其下一代人工智能芯片Maia 200 旨在为云客户提供Nvidia以及竞争对手亚马逊和谷歌的替代方案 [2] - Maia 200是微软部署过的最高效的推理系统 未来将向更广泛的客户提供 开发者、学者、AI实验室和开源AI模型贡献者可申请其软件开发套件的预览版 [3] - 微软的超智能团队、Microsoft 365 Copilot商业附加组件以及Microsoft Foundry服务都将使用新的Maia 200芯片 [4] 产品性能与技术规格 - Maia 200芯片采用台积电的3纳米制程工艺 每个服务器内连接四颗芯片 并使用以太网电缆而非InfiniBand标准进行连接 [6] - 该芯片在相同价格下提供比替代方案高出30%的性能 每颗Maia 200芯片比亚马逊AWS的第三代Trainium AI芯片或谷歌的第七代张量处理单元拥有更多高带宽内存 [7] - 通过将多达6,144颗Maia 200芯片连接在一起 公司可以实现高性能 同时降低能耗和总体拥有成本 [7] 市场背景与部署计划 - 云服务提供商正面临来自生成式AI模型开发商以及基于流行模型构建AI代理和其他产品的公司的激增需求 数据中心运营商在提升算力的同时需控制能耗 [5] - 微软正在为其美国中部区域的数据中心配备Maia 200芯片 随后将部署到美国西部3区域 并计划扩展至更多地点 [5] - 此次发布距离公司宣布开发首款AI芯片Maia 100已过去两年 Maia 100从未向云客户提供租赁服务 [3]
群狼围上来了!黄仁勋最大的竞争对手来了
新浪科技· 2025-12-12 08:24
美国政府批准英伟达对华销售H200芯片 - 美国政府正式批准英伟达向中国及其他“经批准的客户”出售高端H200 GPU芯片,但需缴纳25%的销售提成,此比例同样适用于AMD、英特尔等其他美国芯片巨头 [1] - 英伟达最新的Blackwell和未来的Rubin系列GPU仍然被禁止出口 [1] - 受此利好消息推动,英伟达股价盘后应声上涨 [1] 英伟达在中国市场的现状与影响 - 过去两年,受美国芯片禁运令限制,英伟达逐步失去了迅猛增长的中国市场,丢掉了在AI GPU市场原先高达95%的份额 [1] - 在英伟达最核心的数据中心业务中,中国市场的营收占比从原先的四分之一急剧下滑 [1] - 黄仁勋曾公开表示公司在中国市场“完全出局,市场份额已经归零” [2] - 即便缴纳25%提成,重新进入中国市场对英伟达意义重大,因为中国AI GPU市场规模今年估计高达200亿-300亿美元 [2] 主要云服务巨头的自研芯片战略 - 英伟达最大的AI芯片客户——谷歌、亚马逊、微软(超大规模云服务商)正在加速普及自研芯片,以减少对英伟达的依赖 [2] - 英伟达数据中心业务营收高达1300亿美元(最近财年),但客户集中度过高,前两大客户营收占比39%,前三大客户占比高达53% [2] - 前三大客户(微软、谷歌、亚马逊)加速转用自研芯片,并拉拢英伟达的第四大客户(据媒体猜测为Meta),这直接威胁英伟达的订单和市场竞争地位 [3] 亚马逊AWS的自研芯片进展 - 亚马逊AWS发布新一代自研AI芯片Trainium 3,被媒体誉为“对英伟达的直接宣战” [5][6] - Trainium 3训练速度比前代快4倍,成本减半,与英伟达相当的GPU系统相比可节省50%训练费用 [6] - 现场演示显示,Trainium 3在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务 [6] - AWS将Trainium 3定位为英伟达GPU的低成本替代品,采用其Neuron软件栈和Trainium实例的客户,可将大型模型的训练和推理成本降低高达约50% [6] - AWS计划用自研芯片、模型和部署方案掌控从训练到推理的整条AI赛道 [7] - AWS在云计算市场份额超过三成(31%),领先于微软(20%)和谷歌(16%) [7] - OpenAI与AWS签署了七年价值380亿美元的AI基础设施服务协议,Anthropic等初创公司已转向Trainium,节省了超过三成的预算 [7] 谷歌的自研芯片进展 - 谷歌发布第七代自研TPU芯片v7 Ironwood,单芯片FP8计算能力达4.6 PFLOPS,比第五代TPU提升10倍,是第六代的4倍 [8][10] - 相比英伟达Blackwell,Ironwood在能效上领先20%,功耗仅300W/芯片 [11] - 谷歌TPU已覆盖从边缘设备到超大规模Pod的全栈,不仅是硬件,更是云生态的“杀手锏” [11] - 2025年,谷歌的AI芯片市场份额预计已达到8%,尤其在占AI算力80%的推理领域 [12] - 谷歌声称使用TPU可将训练成本降低40%,并已吸引Meta等第三方客户 [12] - Meta计划在2027年部署谷歌TPU,而Meta是英伟达AI芯片的第四大客户 [12] - 谷歌TPU的外部销售占比已达到20% [22] - Anthropic与谷歌签署价值数百亿美元的协议,计划使用多达100万片TPU,其中包括40万片Ironwood [23] 微软的自研芯片进展与挑战 - 微软自研芯片首代Maia 100于2024年推出,已部署于Azure数据中心,预计比英伟达H100芯片成本低40% [13] - 但原计划今年发布的Maia 200(代号Braga)的大规模量产已推迟至2026年,主要由于设计变更、仿真不稳定等技术因素以及台积电产能瓶颈 [13][15] - 微软未来将“主要使用自家芯片”,以减少对英伟达的严重依赖 [15] - 由于在台积电产能竞争中处于非优先级,微软转向英特尔18A节点计划在明年实现量产 [16] - 如果Maia二代不能及时规模部署,微软明年可能还要投入100亿美元购买英伟达芯片 [16] 英伟达的竞争优势与市场地位 - 英伟达是生成式AI时代的领军公司,在AI芯片这个万亿级赛道中,其GPU产品线几乎垄断了八成以上的市场份额 [2] - 公司是全球最具价值的上市公司,市值一度突破5万亿美元 [2] - 英伟达Blackwell架构B200 GPU单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍 [18] - 在推理任务中,Blackwell的能效比谷歌TPU高出30% [18] - 英伟达的核心护城河在于其CUDA平台,支持4000多个AI框架和库,拥有庞大的开发者生态 [18] 未来市场竞争格局展望 - 2025年三大巨头发布最新自研芯片,预示着2026年将是“性能 vs 成本”的巅峰对决 [18] - 性能技术是英伟达的核心优势,而巨头自研芯片主要强调成本优势 [18] - 亚马逊Trainium3宣称可将训练成本降至前代的50%,谷歌Ironwood TPU在推理任务中能效比英伟达H100高出20-30% [19] - AI巨头正通过“渐进式”策略蚕食英伟达的CUDA优势,例如谷歌的JAX和PyTorch/XLA集成已覆盖70% AI工作负载 [20] - 亚马逊AWS计划在Trainium4上集成NVLink兼容技术,实现与英伟达GPU无缝混合部署,预计训练费用再降40% [20] - 2027年商用的谷歌TPU v8成本优势或达50%以上 [20] - 亚马逊AWS的目标是在明年达到50%的自研芯片占比,推动其在AI云市场份额从31%升至35% [22] - AMD CEO苏姿丰认为,在未来五年内,ASIC类加速器(如三大巨头的自研芯片)可能占据20%-25%的市场份额,GPU仍将占据市场大部分份额 [26] - 苏姿丰还计划AMD在未来3-5年,抢到两位数的市场份额 [26] - 英伟达在中国市场同样面临华为、寒武纪等本土竞争对手 [26]
群狼围上来了!黄仁勋最大的竞争对手来了|硅谷观察
新浪财经· 2025-12-12 07:28
美国政府放宽对华芯片出口限制 - 美国政府正式批准英伟达向中国及其他“经批准的客户”出售高端H200 GPU芯片,但需缴纳25%的销售提成,此比例同样适用于AMD、英特尔等其他美国芯片巨头 [2][23] - 英伟达最新的Blackwell和未来的Rubin系列GPU仍然被禁止出口 [2][23] - 此举是英伟达首席执行官黄仁勋长达数月游说的结果,消息推动公司股价盘后上涨 [2][23] 英伟达的市场地位与潜在风险 - 英伟达是生成式AI时代的领军公司,在AI芯片万亿级赛道中,凭借性能优势和CUDA平台占据主导,其GPU产品线垄断了80%以上的市场份额,公司市值一度突破5万亿美元 [3][25] - 公司数据中心业务最近财年营收高达1300亿美元,但客户集中度过高,前两大客户营收占比39%,前三大客户营收占比高达53% [3][25] - 其前五大客户被认为是微软、谷歌、亚马逊、Meta和甲骨文,而前三大客户正在加速转用自研芯片,并拉拢第四大客户Meta,这直接威胁英伟达的订单和市场竞争地位 [4][25] 亚马逊AWS的自研芯片进展 - 亚马逊AWS发布第三代自研AI芯片Trainium 3,主打低成本与推理优势,训练速度比前代快4倍,成本减半 [6][27] - 与英伟达相当的GPU系统相比,Trainium 3可节省50%训练费用,在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务 [6][27] - AWS计划通过自研芯片、模型及服务掌控整条AI赛道,其目标是明年达到50%的自研占比,推动AWS在AI云市场份额从31%升至35% [7][17][40] - AWS在云计算市场保持领先,份额超过三成,OpenAI已与其签署七年价值380亿美元的AI基础设施服务协议 [7][28] 谷歌TPU的竞争威胁 - 谷歌发布第七代TPU v7 Ironwood,单芯片FP8计算能力达4.6 PFLOPS,比第五代提升10倍,是第六代的4倍 [8][10][31] - 相比英伟达Blackwell,Ironwood在能效上领先20%,功耗仅300W/芯片,专为高吞吐、低延迟推理优化 [10][31] - 谷歌TPU市场份额在2025年预计已达到8%,尤其在占AI算力80%的推理领域,其使用可将训练成本降低40% [10][32] - Meta计划在2027年部署谷歌TPU,这将对作为英伟达第四大客户的Meta形成双重打击 [11][32] - 谷歌已开始向外部客户销售TPU,外部销售占比达20%,并与Anthropic签署价值数百亿美元协议,计划使用多达100万片TPU [18][40][41] 微软自研芯片的挑战与延误 - 微软自研芯片Maia 100已于2024年推出并开始部署,预计比英伟达H100成本低40% [11][12][33] - 但原计划今年发布的Maia 200(代号Braga)大规模量产已推迟至2026年,主要因设计变更、仿真不稳定等技术问题及台积电产能瓶颈 [11][14][36] - 由于在台积电抢不到产能优先级,微软转向英特尔18A节点计划明年量产,若Maia二代不能及时部署,公司明年可能需额外投入100亿美元购买英伟达芯片 [15][37] 性能与成本的行业对决 - 英伟达在性能上保持领先,其Blackwell架构B200 GPU单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍,在推理任务中能效比谷歌TPU高出30% [16][38] - 英伟达的核心护城河还包括CUDA平台,其支持超过4000个AI框架和库,拥有庞大的开发者生态 [16][39] - 云巨头的自研芯片主要卖点是成本优势:亚马逊Trainium 3可将训练成本降低50%;谷歌Ironwood TPU在推理任务中能效比英伟达H100高出20-30% [17][39] - 巨头正通过软件生态(如谷歌JAX、AWS Neuron SDK、微软DirectML)渐进式蚕食英伟达优势,并计划未来进一步降低成本(如Trainium4再降40%,TPU v8成本优势或达50%以上) [17][39][40] 未来市场竞争格局展望 - AMD CEO苏姿丰预计,未来五年内,三大巨头的自研ASIC类加速器可能占据20%-25%的市场份额 [20][21][43] - 苏姿丰还计划AMD在未来3-5年内抢占两位数的市场份额 [21][43] - 尽管加速部署自研芯片,但云巨头未来几年仍将继续采购英伟达产品以维持供应关系 [18][41] - 英伟达在中国市场还将面临华为、寒武纪等本土竞争对手的挑战 [21][43]
微软放慢AI芯片开发节奏:放弃激进路线,专注务实设计
硬AI· 2025-07-03 22:09
微软AI芯片战略调整 - 微软正在调整内部AI服务器芯片路线图,转向更务实和迭代的设计路线,目标是在2028年前发布不那么激进的设计以克服开发延迟问题 [1][2] - 原定2025年发布的Maia 200芯片推迟至2026年,新推出的Maia 280芯片预计在每瓦性能上比英伟达2027年芯片有20%-30%优势 [2][5] - 公司承认每年从零设计全新高性能芯片不可行,通过降低设计复杂性和延长开发周期来减少对英伟达数十亿美元芯片采购的依赖 [2] 开发延迟与产品路线图变更 - 第二代AI芯片Braga设计完成延迟6个月,导致2026-2027年芯片竞争力存疑,公司计划2027年推出中间过渡芯片Maia 280(基于Braga设计,由至少两个Braga芯片连接组成) [4][5] - 原Braga-R芯片更名为Maia 400,计划2028年量产,采用先进连接技术实现裸片层面整合 [6] - 第三代AI芯片Clea发布推迟至2028年后,前景不明 [7] 对合作伙伴的影响 - 芯片设计公司Marvell因微软项目延迟受到负面影响,其股价周三收跌2.61% [9] - 与AI芯片不同,微软CPU项目进展顺利:2024年发布的Cobalt服务器CPU已用于Teams等内部服务并向Azure客户开放,下一代Kingsgate CPU设计已于2024年3月完成 [9][10] 市场反应 - 微软股价在战略调整消息公布后周三收跌0.2% [1][2]
微软放慢AI芯片开发节奏:放弃激进路线,专注务实设计
华尔街见闻· 2025-07-03 04:15
微软AI芯片战略调整 - 公司调整内部AI芯片开发路线图,转向更务实和迭代的设计策略,目标是在2028年前发布性能更稳定的芯片以保持与英伟达的竞争力[1] - 原定2025年发布的Maia 200芯片推迟至2026年,新设计的Maia 280芯片预计在2027年发布,性能比英伟达同期芯片高20%-30%[1][4] - 公司承认每年从零设计全新高性能芯片不可行,通过降低复杂性和延长开发周期来减少对英伟达数十亿美元采购的依赖[1] AI芯片开发延迟详情 - 第二代AI芯片Braga设计完成延迟6个月至2024年6月,导致2026-2027年芯片可能竞争力不足[4] - 公司计划2027年推出中间芯片Maia 280,由两个Braga芯片连接组成[4] - 第三代芯片Clea推迟至2028年后,前景不明朗[5] 修订后的芯片路线图 - Braga-R更名为Maia 400,计划2028年量产,采用先进连接技术提升性能[5] - 公司计划逐步提高自研AI芯片产量,目标年产数十万颗[5] 对合作伙伴的影响 - 芯片设计公司Marvell因微软项目延迟受到负面影响,股价周三下跌2.61%[6] - Marvell原本预期从微软获得更早收入,但受芯片延迟、全球经济放缓及贸易紧张关系拖累[6] CPU项目进展顺利 - 服务器CPU芯片Cobalt 2024年已商用,支持Teams等内部服务并向Azure客户开放[8] - 下一代CPU Kingsgate设计于2024年3月完成,采用chiplet设计和高速内存[8]
微软自研芯片,凉了?
半导体行业观察· 2025-06-28 10:21
微软自研AI芯片延迟及性能问题 - 微软首款自研AI芯片"Braga"已推迟至少6个月,大规模量产顺延至2025年,原计划2024年部署[1] - 该芯片预计2026年发布时性能将远不及英伟达Blackwell芯片,研发耗时超预期导致竞争力下降[1][3] - 延迟原因包括未预料的设计变更、人员紧张及高离职率(部分团队流失20%成员)[1][3] 微软芯片研发历史与现状 - 公司自2019年开始研发AI芯片,2023年发布的Maia 100(128核Arm CPU)仅用于内部测试,未实际支持AI服务[2] - Maia 100设计定位过时,专注于图像处理而非生成式AI/LLM,早于ChatGPT引发的技术变革[2] - 目前秘密研发三款芯片:Braga(2025)、Braga-R(2026)、Clea(2027),均面向推理场景[3] - 原计划2024年推出的训练专用芯片已被取消[3] 行业竞争格局与英伟达态度 - 微软/谷歌/亚马逊等科技巨头研发自研芯片以减少对英伟达依赖,但英伟达CEO黄仁勋质疑其必要性[2] - 黄仁勋认为多数自研ASIC性能不及商用产品,微软延迟案例可能印证其观点[2] - 微软需等到2027年Clea芯片才可能抗衡英伟达,但届时英伟达或已实现新突破[3] 技术挑战与项目风险 - OpenAI要求新增功能导致Braga芯片模拟测试不稳定,使进度倒退数月[3] - 尽管设计问题导致延迟,微软仍未调整原定发布日期,团队承受高压[3] - 芯片定位与AI技术发展脱节,Maia系列需迭代至Clea才具备竞争力[2][3]
挑战英伟达(NVDA.US)地位!Meta(META.US)在ASIC AI服务器领域的雄心
智通财经网· 2025-06-18 17:30
AI服务器市场竞争格局 - 英伟达在AI服务器领域占据超过80%的市场价值份额 ASIC AI服务器的价值份额约为8%-11% [1][3] - 谷歌TPU和亚马逊Trainium2 ASIC在2025年合计出货量预计达到英伟达AI GPU的40%-60% 谷歌TPU可能达到150-200万台 亚马逊Trainium2约140-150万台 英伟达AI GPU供应量预计500-600万台 [3] - 云服务提供商正积极部署自研AI ASIC解决方案 Meta计划从2026年开始 微软从2027年开始 [1][4] AI ASIC技术发展趋势 - 英伟达推出NVLink Fusion技术 开放专有互连协议 支持与第三方芯片连接 试图维持云计算市场地位 [4] - 英伟达在单位芯片面积计算能力和互连技术(NVLink)方面保持领先 晶体管密度达130MTr/mm² 远超竞争对手 [6][7] - ASIC解决方案正采用更复杂规格 如更大中介层 Meta的MTIA V1 5中介层尺寸超过5倍光罩尺寸 接近英伟达Rubin GPU水平 [10][12] Meta MTIA项目进展 - Meta计划推出三代MTIA芯片 V1(2025年底) V1 5(2026年中) V2(2027年) V1 5性能显著提升 系统功率达170KW [13][14][19] - MTIA V1采用刀片架构 16个计算刀片和6个交换机刀片 主板采用36层PCB和高等级材料 [16][18] - 供应链预计2026年MTIA总产量目标200万套 但CoWoS晶圆供应可能仅支持3-4万片 存在量产挑战 [22][23] 供应链机会 - 广达负责Meta MTIA V1和V1 5的计算托盘及CDU制造 并主导V1 5整机架组装 [24] - 欣兴电子成为Meta 谷歌及AWS ASIC基板主要供应商 在英伟达Blackwell GPU份额达30%-40% [24] - 联茂电子主导Meta和亚马逊ASIC覆铜板供应 Meta PCB要求36/40层 M8混合覆铜板 [25] - Bizlink有望为Meta MTIA提供有源电缆(AEC)产品 用于机架扩展和升级连接 [26]