美国政府批准英伟达对华销售H200芯片 - 美国政府正式批准英伟达向中国及其他“经批准的客户”出售高端H200 GPU芯片,但需缴纳25%的销售提成,此比例同样适用于AMD、英特尔等其他美国芯片巨头 [1] - 英伟达最新的Blackwell和未来的Rubin系列GPU仍然被禁止出口 [1] - 受此利好消息推动,英伟达股价盘后应声上涨 [1] 英伟达在中国市场的现状与影响 - 过去两年,受美国芯片禁运令限制,英伟达逐步失去了迅猛增长的中国市场,丢掉了在AI GPU市场原先高达95%的份额 [1] - 在英伟达最核心的数据中心业务中,中国市场的营收占比从原先的四分之一急剧下滑 [1] - 黄仁勋曾公开表示公司在中国市场“完全出局,市场份额已经归零” [2] - 即便缴纳25%提成,重新进入中国市场对英伟达意义重大,因为中国AI GPU市场规模今年估计高达200亿-300亿美元 [2] 主要云服务巨头的自研芯片战略 - 英伟达最大的AI芯片客户——谷歌、亚马逊、微软(超大规模云服务商)正在加速普及自研芯片,以减少对英伟达的依赖 [2] - 英伟达数据中心业务营收高达1300亿美元(最近财年),但客户集中度过高,前两大客户营收占比39%,前三大客户占比高达53% [2] - 前三大客户(微软、谷歌、亚马逊)加速转用自研芯片,并拉拢英伟达的第四大客户(据媒体猜测为Meta),这直接威胁英伟达的订单和市场竞争地位 [3] 亚马逊AWS的自研芯片进展 - 亚马逊AWS发布新一代自研AI芯片Trainium 3,被媒体誉为“对英伟达的直接宣战” [5][6] - Trainium 3训练速度比前代快4倍,成本减半,与英伟达相当的GPU系统相比可节省50%训练费用 [6] - 现场演示显示,Trainium 3在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务 [6] - AWS将Trainium 3定位为英伟达GPU的低成本替代品,采用其Neuron软件栈和Trainium实例的客户,可将大型模型的训练和推理成本降低高达约50% [6] - AWS计划用自研芯片、模型和部署方案掌控从训练到推理的整条AI赛道 [7] - AWS在云计算市场份额超过三成(31%),领先于微软(20%)和谷歌(16%) [7] - OpenAI与AWS签署了七年价值380亿美元的AI基础设施服务协议,Anthropic等初创公司已转向Trainium,节省了超过三成的预算 [7] 谷歌的自研芯片进展 - 谷歌发布第七代自研TPU芯片v7 Ironwood,单芯片FP8计算能力达4.6 PFLOPS,比第五代TPU提升10倍,是第六代的4倍 [8][10] - 相比英伟达Blackwell,Ironwood在能效上领先20%,功耗仅300W/芯片 [11] - 谷歌TPU已覆盖从边缘设备到超大规模Pod的全栈,不仅是硬件,更是云生态的“杀手锏” [11] - 2025年,谷歌的AI芯片市场份额预计已达到8%,尤其在占AI算力80%的推理领域 [12] - 谷歌声称使用TPU可将训练成本降低40%,并已吸引Meta等第三方客户 [12] - Meta计划在2027年部署谷歌TPU,而Meta是英伟达AI芯片的第四大客户 [12] - 谷歌TPU的外部销售占比已达到20% [22] - Anthropic与谷歌签署价值数百亿美元的协议,计划使用多达100万片TPU,其中包括40万片Ironwood [23] 微软的自研芯片进展与挑战 - 微软自研芯片首代Maia 100于2024年推出,已部署于Azure数据中心,预计比英伟达H100芯片成本低40% [13] - 但原计划今年发布的Maia 200(代号Braga)的大规模量产已推迟至2026年,主要由于设计变更、仿真不稳定等技术因素以及台积电产能瓶颈 [13][15] - 微软未来将“主要使用自家芯片”,以减少对英伟达的严重依赖 [15] - 由于在台积电产能竞争中处于非优先级,微软转向英特尔18A节点计划在明年实现量产 [16] - 如果Maia二代不能及时规模部署,微软明年可能还要投入100亿美元购买英伟达芯片 [16] 英伟达的竞争优势与市场地位 - 英伟达是生成式AI时代的领军公司,在AI芯片这个万亿级赛道中,其GPU产品线几乎垄断了八成以上的市场份额 [2] - 公司是全球最具价值的上市公司,市值一度突破5万亿美元 [2] - 英伟达Blackwell架构B200 GPU单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍 [18] - 在推理任务中,Blackwell的能效比谷歌TPU高出30% [18] - 英伟达的核心护城河在于其CUDA平台,支持4000多个AI框架和库,拥有庞大的开发者生态 [18] 未来市场竞争格局展望 - 2025年三大巨头发布最新自研芯片,预示着2026年将是“性能 vs 成本”的巅峰对决 [18] - 性能技术是英伟达的核心优势,而巨头自研芯片主要强调成本优势 [18] - 亚马逊Trainium3宣称可将训练成本降至前代的50%,谷歌Ironwood TPU在推理任务中能效比英伟达H100高出20-30% [19] - AI巨头正通过“渐进式”策略蚕食英伟达的CUDA优势,例如谷歌的JAX和PyTorch/XLA集成已覆盖70% AI工作负载 [20] - 亚马逊AWS计划在Trainium4上集成NVLink兼容技术,实现与英伟达GPU无缝混合部署,预计训练费用再降40% [20] - 2027年商用的谷歌TPU v8成本优势或达50%以上 [20] - 亚马逊AWS的目标是在明年达到50%的自研芯片占比,推动其在AI云市场份额从31%升至35% [22] - AMD CEO苏姿丰认为,在未来五年内,ASIC类加速器(如三大巨头的自研芯片)可能占据20%-25%的市场份额,GPU仍将占据市场大部分份额 [26] - 苏姿丰还计划AMD在未来3-5年,抢到两位数的市场份额 [26] - 英伟达在中国市场同样面临华为、寒武纪等本土竞争对手 [26]
群狼围上来了!黄仁勋最大的竞争对手来了