亚马逊自研AI芯片战略升级 - 亚马逊计划大规模使用其自研的Trainium和Inferentia AI ASIC芯片集群来开发和更新其人工智能大模型,旨在大幅降低成本 [1] - 此举标志着亚马逊AWS将自研AI ASIC从主要用于AI推理,升级为直接承接其前沿AI大模型最核心的算力系统,是公司自研AI芯片路线的重要里程碑 [1] - 亚马逊首席执行官安迪·贾西表示,公司2026年约2000亿美元的资本支出中,有一部分将用于开发与升级迭代自研AI芯片 [3] 对英伟达主导的AI芯片格局的潜在影响 - 亚马逊的举措可能对英伟达和AMD主导的AI GPU算力体系构成“中长期边际压制”,并削弱其垄断溢价 [1] - 在AI推理浪潮下,性价比更高的AI ASIC技术路线可能对英伟达在AI芯片市场近90%的份额发起最强有力的冲击 [1] - 市场对英伟达前景的担忧加剧,其股价在公布超预期财报后仍下跌5%,部分原因在于超大规模云计算厂商密集推出自研AI ASIC芯片 [2] - AI ASIC算力体系预计将在中长期持续削弱英伟达的垄断溢价与部分市场份额,但更可能表现为议价权下滑、份额被分食和估值溢价被压缩,而非绝对需求塌陷 [4][5] AI ASIC的技术优势与产业化进展 - AI推理侧更看重单位token成本、延迟与能效,面向特定工作负载定制的ASIC在每token成本、功耗、内存带宽利用率等指标上,天然比通用GPU更具性价比优势 [4] - AWS将Trainium/Inferentia定位为面向生成式AI训练与推理的专用加速器,其中Trainium2相比其AI GPU云实例提供约30%–40%更优的价格性能比 [5] - 谷歌已公开表示其Gemini 2.0模型的训练和推理100%运行在自研TPU上,表明超大云计算厂商用自研ASIC承接核心模型已进入可复制的产业化阶段 [5] - 亚马逊的行动证明了AI ASIC具备训练大模型的强大潜力,而不仅仅是用于推理 [4] 未来算力格局:GPU与ASIC并存 - 英伟达的护城河不仅在于芯片,更在于CUDA、开发工具链、模型适配广度和生态惯性,全球已有超过400万开发者依赖CUDA [6] - 大量前沿训练、复杂混合工作负载及需要快速迭代的新模型,短期内仍更适合在GPU上运行 [6] - 超大规模云计算厂商的真实策略并非“去GPU化”,而是在高端训练层保留GPU,同时在大规模推理和自家模型栈中提高ASIC占比 [6] - 从工程现实看,未来算力格局更像是“GPU+ASIC并存分层”,而不是单一路线胜出 [6]
亚马逊(AMZN.US)发起AI成本革命! 自研AI ASIC直扑大模型训练 英伟达算力垄断迎来最强挑战