英伟达面临的竞争格局 - 过去十年,英伟达是AI芯片市场唯一的“王”,其从2025年2月到10月的芯片和相关硬件销售额达1478亿美元,同比增长62%,市值一度突破4万亿美元[4] - 但当前其芯片帝国正被三股势力围猎:博通领衔的定制芯片(ASIC)阵营、超大规模云服务商的自研芯片浪潮、以及AMD和英特尔等传统芯片对手的反击[5] - 英伟达CEO黄仁勋称公司卖的是“AI工厂”,但如今想开工厂的客户不想只从一家进货[6] 大客户倒戈:云巨头自研芯片 - 谷歌是自研芯片道路上走得最远的公司,其研发张量处理单元(TPU)已近十年,第七代TPU Ironwood峰值性能达4.6 petaFLOPS,功耗低于英伟达B200[7] - 谷歌已开始将TPU租给Meta和通过Fluidstack对外出租,AI初创公司Anthropic计划用上百万颗Ironwood运行Claude模型[7] - 亚马逊AWS推出Trainium和Inferentia芯片,Anthropic正用50万颗Trainium 2芯片训练模型,未来亚马逊将为其建设拥有上百万颗芯片的数据中心集群[8] - Meta内部已部署超过150万颗自研的MTIA芯片,其逻辑是不想让英伟达赚走73%的毛利[11] - 微软的Maia 100加速器专为Azure工作负载设计,仍处于研发早期[11] 定制芯片(ASIC)的围剿 - 博通是定制芯片(ASIC)的关键厂商,占据了AI ASIC市场超过50%的份额,谷歌的TPU和Meta的MTIA芯片均由博通帮助开发[13] - 2026年,在台积电115万片CoWoS晶圆产能中,博通预定量大幅增长到20万片,同比猛增122%,这些订单主要分配给谷歌(60%到65%)、Meta(20%)以及OpenAI[13] - OpenAI计划在2026年底推出自研芯片Titan,将占用博通所占晶圆产能的5%到10%,2027年将超过20%[13] - 博通与OpenAI签署大单,共同开发规模高达100亿瓦特的定制AI加速器和机架系统,计划2026年底开始部署[15] - 博通CEO认为,在推理任务上,ASIC的成本可比GPU低30%到50%[15] 传统芯片对手的反击 - AMD市值从不到千亿美元涨到3500多亿美元,其MI300X加速器已部署在微软Azure上并为ChatGPT做推理,2024年向微软、Meta、甲骨文出货约32.7万颗[16] - AMD MI300X拥有192GB的HBM3内存,带宽5.3TB/s,内存比英伟达H100高,新一代MI325X已出货,MI350系列计划明年推出,官方称推理性能提升35倍[16] - 英特尔Gaudi 3加速器定价约为H100的一半,功耗600W比H100低100W,官方宣称在某些训练任务上比H100快1.5倍,性价比高2.3倍[18][21] - 英特尔新任CEO陈立武将AI芯片业务归为自己直接管理[21] 初创公司的挑战 - 初创公司Groq专攻推理芯片,速度快、成本低,英伟达于去年12月以170亿美元从Groq购买技术授权并挖走核心团队[22] - Cerebras估值230亿美元,其设计的“晶圆级”芯片有餐盘大小,今年1月与OpenAI签署了100亿美元的大单[22] - Cerebras基于CS-3芯片的新推理平台,号称比英伟达H系列快20倍,而价格只是零头[24] - 这些初创公司判断AI正在从训练转向推理,到2030年推理将占全球AI计算需求的75%,而推理任务对成本和延迟敏感,容易被专用芯片替代[24] 英伟达的应对与盟友 - 英伟达将自家NVLink网络技术开放给第三方,英特尔、高通、富士通、Arm都拿到了授权,旨在让不同架构的CPU能与其GPU更好连接[25] - 埃隆·马斯克旗下xAI的Colossus超级计算机几乎全部采用英伟达GPU,目前规模超过20万颗,正在向百万颗迈进,在孟菲斯数据中心的芯片采购花费数百亿美元[25] - 2025年10月,xAI融资约200亿美元,英伟达直接投资了20亿美元,这笔钱最终又回到英伟达账上购买芯片[26] 深层威胁:CPU复兴与电力瓶颈 - 智能体AI崛起导致需要大量任务调度编排,这类任务GPU无法胜任,CPU成为主角,其市场规模有望从2025年的270亿美元增长至2030年的600亿美元[27] - 但CPU产能跟不上需求,交付周期拉长至六个月,价格上涨超过10%,AMD和英特尔已向客户发出供应紧张预警[27] - 电力成为数据中心瓶颈,英伟达B200 GPU满配功耗达1200瓦,比H100增加71%,用于训练大模型的GB200机架整机功耗达120千瓦[28] - 德勤调查显示,72%的数据中心和电力公司高管认为电网与供电容量对AI基建构成了“非常”或“极其严峻”的挑战[32] - 高盛预测,到2030年全球数据中心的电力需求将比2023年增长165%[33] - 功耗更低的替代方案迎来窗口期,谷歌称其Ironwood芯片的能效是第一代云TPU的30倍,英特尔也将低功耗作为Gaudi 3的核心卖点[35] 软件生态护城河的挑战 - CUDA是英伟达深厚的软件生态护城河,拥有数百万开发者,主流深度学习框架优先针对其优化[36] - 但竞争对手正在架桥,AMD的ROCm软件堆栈正在缩小性能差距,PyTorch已正式支持ROCm,AMD还投资了能让CUDA程序在其硬件上运行的兼容层ZLUDA[37] - 微软据称在开发将CUDA模型迁移到AMD芯片的工具,OpenAI的Triton 3.0已支持AMD Instinct加速器[37] - CUDA的锁定效应一年比一年弱[38] 未来市场格局展望 - 短期内,英伟达在大模型训练这一核心赛道上仍保持主导地位[38] - 但训练仅占AI计算的一小部分,推理才是未来的主战场,到2030年将占全球AI计算需求的75%[24][38] - 在推理领域,专用芯片具备成本优势,超大规模云服务商自研芯片是为了降低运营成本,英伟达73%的毛利率代表着客户希望省下的开支[38] - 未来AI芯片市场可能不会赢者通吃,而是走向两条腿并行:英伟达在训练和高性能计算领域保持领先,博通等厂商在推理和定制化应用中切走更大市场份额[38] - 竞争胜负关键在于在性能与价格之间找到最舒适的平衡点[39]
“反英伟达联盟”变强,4.4万亿美元帝国遭遇“四面围猎”