Cobalt CPU
搜索文档
微软这颗芯片,撼动英伟达?
半导体行业观察· 2026-01-29 09:15
微软Maia AI加速器战略背景 - 微软是OpenAI模型的最大用户及构建GPT模型的最大计算合作伙伴,这为其打造更强大的Maia AI加速器提供了双重动力[2] - 大型云服务商及主要GenAI模型开发商(如OpenAI、Anthropic、Meta)均在开发定制AI XPU,以降低生成式AI推理的单代币成本[2] - 人工智能推理预计所需计算能力将比训练高出一个数量级,为超过一百家人工智能计算引擎初创公司创造了市场机会[2] 云服务商自研芯片的行业逻辑 - 微软等云服务商希望掌控自身硬件资源,同时保留通用x86 CPU及英伟达/AMD GPU以满足客户租用需求[3] - 云服务商通过自研计算引擎并以低于第三方产品的价格竞争,旨在减少对传统芯片供应商的依赖[3] - 类似逻辑也适用于亚马逊AWS、谷歌、百度、阿里巴巴、腾讯等自行设计CPU和XPU的公司[3] - Meta Platforms虽非严格意义上的基础设施云,但通过出租硬件运行Llama模型API,正成为面向主权国家的GenAI平台云[3] Maia 100 (Athena) 芯片设计与性能 - 芯片发布于2023年11月,设计初衷是支持AI训练和推理,并专门用于运行OpenAI的GPT模型[4] - 芯片采用台积电5纳米工艺,面积820平方毫米,晶体管数量1050亿个[12] - 计算引擎包含64个核心(推测良率下有效核心数可能为52-56个),运行频率约2.86 GHz[12] - 芯片上L1/L2缓存总容量约500MB,SRAM带宽估计为132 TB/秒[12] - 配备4组HBM2E内存,总容量64GB,带宽1.8 TB/秒[12] - 每个核心的张量单元支持微软特有的MX6(6位)和MX9(9位)数据格式[13] - 互连I/O带宽为12个400 Gb/s端口,总计4,800 Gb/s(600 GB/s)[14] - 网络设计支持构建包含576个节点、总计2304个计算引擎的集群域[19] - 芯片峰值热设计功耗(TDP)为700瓦,持续功耗为500瓦[20] Maia 200 (Braga) 芯片的升级与改进 - 芯片于2026年1月发布,专门针对AI推理任务,简化了设计[5] - 采用台积电N3P(3纳米高性能版)工艺,面积836平方毫米,晶体管数量1440亿个[21] - 核心数量增至96个,良率约92%,主流产品预计有88个可用核心[20][22] - 运行频率提升至3.10 GHz[20] - L1/L2缓存SRAM容量降至272MB,SRAM带宽降至80 TB/秒[20] - HBM内存升级为6组HBM3E,总容量216GB,带宽大幅提升至7 TB/秒[20][22] - 后端网络带宽提升至56个400 Gb/s端口,总计22.4 Tb/s(2.8 TB/s)[20][21] - 主机互连升级为PCI-Express 5.0 x16,带宽64 GB/秒[20] - 集群相干域规模扩大,支持最多1536个节点和6144个计算引擎[19][20] - 性能方面,FP4精度达10.15 petaflops,FP8精度达5.07 petaflops,BF16精度达1.27 petaflops[20][24] - 持续热设计功耗(TDP)为750瓦[20] - 张量单元仅支持FP4和FP8格式,向量单元支持BF16和FP32,不再支持Maia 100特有的MX6/MX9格式[13] Maia 200的部署与应用 - 首批Maia 200机架已部署在美国中部的Azure云区域(爱荷华州得梅因),美国西部3区域(亚利桑那州凤凰城)也将跟进[26] - 微软将使用Maia 200计算引擎为OpenAI GPT-5.2大型语言模型提供推理服务,驱动Microsoft Foundry AI平台及Office 365 Copilot[26] - 微软的AI研究人员还将使用Maia 200生成合成数据,用于训练内部模型[26] - 目前尚未有关于Azure何时会提供基于Maia 200的虚拟机实例供租用的消息[26]
微软计划全面转向自研芯片!
国芯网· 2025-10-09 22:47
微软自研芯片战略 - 公司未来计划主要在其数据中心使用自主研发的芯片,以减少对英伟达和AMD等传统芯片供应商的依赖 [1] - 公司首席技术官明确表示长期战略绝对是以自研芯片为主,这是数据中心系统设计战略的重要组成部分 [3] - 公司已于2023年推出专为AI工作负载设计的Azure Maia AI加速器以及Cobalt CPU,并已在数据中心大量应用 [3] 行业趋势与市场格局 - 全球半导体及数据中心服务器市场主要由英伟达GPU主导,AMD占据较小份额 [3] - 随着人工智能技术发展,主要云服务提供商纷纷寻求定制化解决方案,谷歌、亚马逊等竞争对手也相继投入自研芯片领域 [3] - 包括Meta、亚马逊、Alphabet和微软在内的科技巨头,今年已承诺投入超过3000亿美元的资本支出,绝大部分将用于人工智能领域 [3] - 科技巨头转向自研芯片是出于成本、性能、供应链安全和业务定制化的战略考量,这一趋势或将重塑全球半导体产业格局 [4] 技术创新与支持 - 公司推出了基于微流体技术的新型冷却系统,有效解决了芯片运行中的过热问题,为高性能计算提供技术保障 [3] - 自研芯片战略涉及网络和冷却技术的全面优化,以更好地适配特定工作负载需求 [3]
微软希望未来主要使用自己的AI数据中心芯片
搜狐财经· 2025-10-03 17:23
公司战略 - 微软计划未来在其数据中心主要使用自己的芯片 [1] - 公司战略重点在于选择能实现每块芯片最佳性价比的硅片 [3] - 对芯片的关注是优化数据中心整个系统设计战略的一部分 包括网络和冷却系统 [6] - 公司长期目标是在其数据中心主要使用微软芯片 目前已在大量使用 [5] 自研芯片进展 - 微软于2023年推出了专为AI工作负载设计的Azure Maia AI加速器以及Cobalt CPU [5] - 公司正在研发下一代半导体产品 [5] - 公司公布了一项利用微流体解决芯片过热问题的新型冷却技术 [5] 行业竞争格局 - 科技巨头Nvidia凭借其GPU在AI芯片领域占据主导地位 竞争对手AMD所占份额较小 [3] - 包括微软 谷歌和亚马逊在内的主要云计算参与者正在设计自己的定制芯片 [3][6] - 科技巨头自研芯片旨在减少对Nvidia和AMD的依赖 并使产品更高效地满足特定需求 [6] 市场需求与产能 - 计算能力存在严重短缺 自ChatGPT推出以来一直处于难以快速构建容量的模式 [7] - 微软通过数据中心建设容量 但最雄心勃勃的预测也经常被证明不足以满足需求 [7] - 公司在过去一年部署了令人难以置信的容量 并计划在未来几年部署更多 [7] - 包括Meta 亚马逊 Alphabet和微软在内的科技巨头已承诺投入超过3000亿美元的资本支出 大部分集中在AI投资上 [6]
微软CTO:希望未来主要采用自研AI数据中心芯片,自主设计数据中心系统
美股IPO· 2025-10-02 11:53
微软自研芯片战略 - 公司未来目标是让数据中心主要使用自研芯片,以减少对英伟达和AMD等供应商的依赖 [1][3][6] - 公司致力于从芯片到冷却系统的整体数据中心系统设计,以实现计算资源与工作负载的高度匹配 [1][7] - 公司已推出专为AI工作负载打造的Azure Maia AI加速器芯片和Cobalt CPU,并已在大量使用 [5][6] 行业竞争格局 - 包括微软、谷歌和亚马逊在内的主要云计算公司都在为数据中心设计自研定制芯片,以提高效率并满足特定需求 [4][7] - 英伟达目前在AI GPU领域占据主导地位,其解决方案长期以来被视为性价比最佳的选择 [3][4][5] - 科技巨头(如Meta、亚马逊、Alphabet和微软)今年已承诺超过3000亿美元的资本支出,大部分投向人工智能领域 [8] 市场需求与产能挑战 - 行业目前存在严重的算力短缺问题,自ChatGPT上线以来一直处于难以快速扩充产能的状态 [9] - 公司通过建设数据中心扩大产能,但即便最激进的预测也常常被证明不足以满足需求 [9][10] - 公司过去一年部署了惊人的计算资源,并计划在未来几年部署更多 [10]
放弃英伟达!全球巨头宣布自研芯片
是说芯语· 2025-10-02 07:42
微软自研芯片战略 - 公司计划未来在数据中心主要使用自研芯片,以减少对英伟达和AMD的依赖 [1] - 公司已推出自研的Azure Maia AI加速器和Cobalt CPU,并正在研发下一代芯片产品 [1] - 公司长期目标是在数据中心主要使用微软芯片,目前已使用大量微软芯片 [4] - 公司自研芯片是整体系统设计策略的一部分,旨在通过优化芯片、网络和冷却系统来针对不同AI工作负载优化计算能力 [4] 行业竞争格局 - 英伟达凭借GPU主导AI芯片市场,竞争对手AMD市场份额相对较小 [3] - 包括微软、谷歌和亚马逊在内的主要科技公司都在为数据中心设计自己的芯片,目的不仅在于减少对外部供应商的依赖,也为了使产品更有效地满足特定需求 [3] - 公司在数据中心芯片供应商选择上不执着于品牌,重点是最佳性价比,此前英伟达一直是性价比最高的解决方案 [4] AI算力需求与投资 - 自ChatGPT推出以来,行业面临严重的计算能力短缺,公司难以快速建立足够产能 [5] - 即使最雄心勃勃的预测也经常被证明不足,公司过去一年部署了大量算力基础设施,未来几年将部署更多 [5] - 为满足AI需求,包括Meta、亚马逊、Alphabet和微软在内的科技巨头,今年已承诺超过3000亿美元的资本支出 [5] 技术创新与系统优化 - 公司公布了利用微流体解决芯片过热问题的新型冷却技术 [4] - 公司专注于设计整套数据中心系统以优化AI工作负载,而不仅仅是芯片本身 [1][4] - 公司希望拥有自由决策权,以针对不同工作负载真正优化运算能力 [4]
Microsoft wants to mainly use its own AI data center chips in the future
CNBC· 2025-10-01 22:07
微软的AI芯片战略 - 公司计划未来在其数据中心主要使用自研芯片[1] - 此举旨在减少对英伟达和AMD等主要芯片供应商的依赖[1] - 公司目前已在数据中心使用大量自研芯片[6] 当前芯片使用策略 - 公司数据中心目前主要使用英伟达和AMD的芯片[3] - 选择芯片的标准是追求每颗芯片的最佳性价比[3] - 公司对芯片类型持开放态度 只要能确保满足AI需求的计算能力[4] 自研芯片产品与技术 - 公司于2023年推出了用于AI工作负载的Azure Maia AI加速器和Cobalt CPU[5] - 公司据称正在开发下一代半导体产品[5] - 公司近期公布了使用微流体的新型冷却技术以解决芯片过热问题[5] 整体系统设计目标 - 芯片战略是设计整个数据中心系统的一部分[6] - 优化目标包括网络 冷却以及根据工作负载优化计算能力[7] - 与谷歌和亚马逊类似 自研芯片旨在满足特定需求并提升产品效率[7] 行业背景 - 半导体和数据中心服务器是AI模型和应用发展的基础[2] - 英伟达凭借其GPU在该领域占据主导地位 AMD市场份额较小[2] - 主要云计算厂商均已为数据中心设计定制芯片[2]