文章核心观点 - 谷歌TPU正从内部专用AI加速器走向外部市场,其生态优势与成本效益对英伟达GPU的霸主地位构成挑战 [3][8][9] 谷歌TPU的发展历程与战略演进 - 2013年谷歌启动TPU项目,源于深度学习算力需求激增,自研ASIC加速器可将深度神经网络推理的总体能效降至原来的十分之一 [5] - 项目进展迅速,仅15个月完成初代TPU设计到数据中心部署,2016年通过AlphaGo击败李世石首次破圈 [6] - 2017年Transformer架构的出现与TPU高度适配,推动TPU从单一AI加速芯片升级为谷歌AI基础设施底座,并免费开放1000台Cloud TPU巩固生态 [7] - 后续引入液冷技术、4096颗芯片超节点及自研环形拓扑网络,提升性能并应用于广告、搜索等核心盈利产品线 [7] - TPU v7支持训练出多模态模型Gemini 3,使谷歌成为AI算力市场重要竞争者 [8] TPU的技术架构与成本优势 - TPU采用极简"脉动阵列"架构,牺牲硬件通用性以最大化深度学习效率,设计理念紧扣成本优化 [8] - 项目起源可追溯至2006年,但当时GPU算力冗余未推进,体现"量体裁衣"的务实商业逻辑 [8] - TPU v6及后续版本目标成为"推理时代最省钱的商业引擎" [7] 市场影响与竞争格局 - 谷歌云内部高管预计TPU市场扩张可抢占英伟达年收入份额的10%,Meta拟斥资数十亿美元购买TPU [3] - 大摩预测2027年谷歌TPU外销量达100万颗,引发投资者对英伟达市场份额侵蚀的担忧 [3] - 英伟达紧急声明强调其产品比ASIC具备更高性能、通用性及可替代性 [3] - 谷歌通过"芯片-云-模型-应用"全栈AI能力构建生态护城河,形成垂直整合的差异化优势 [9]
十年磨一芯,谷歌做对了什么?