Workflow
定制化AI芯片
icon
搜索文档
“命门”被卡!谷歌牵手Marvell:一场终结英伟达霸权的“世纪密谈”?
新浪财经· 2026-04-22 07:12
谷歌与Marvell合作研发AI芯片 - 谷歌正与Marvell Technology洽谈合作,研发两款全新AI芯片,包括一款存储器处理器(MPU)和一款为运行AI模型打造的新型TPU,目标是最快在2027年完成MPU设计并交付试生产[1] - 此举旨在强化谷歌自研TPU的主力地位,减少对英伟达和AMD的依赖,并借助Marvell的专业芯片设计能力加速TPU技术与产品生态升级,以争夺全球AI算力芯片市场[1] Marvell在定制化AI芯片市场的定位与优势 - Marvell作为全球芯片设计龙头,早在2018年已介入定制化AI芯片市场,公司管理层看好定制计算市场,预计XPU市场规模约400亿美元,复合年增长率47%;XPU附件市场规模150亿美元,复合年增长率高达90%[2] - 公司在先进工艺节点上已实现5纳米和3纳米大规模生产,在2纳米有测试芯片,并前瞻布局A16和A14节点;拥有广泛的模拟混合信号IP组合,覆盖从IP、封装、互联到量产的全链路能力,是少数能同时服务谷歌、亚马逊、微软等科技巨头的Fabless厂商[3] - 凭借全栈式芯片设计服务能力,Marvell和博通这类Fabless厂商成为AI巨头自研ASIC趋势下的直接受益方,能为客户提供专业化一站式技术服务,帮助产品快速流片和量产[8][9] 谷歌TPU的技术进展与竞争优势 - 谷歌最新的TPU v7 (代号Ironwood)在关键性能指标上实现显著提升:BF16算力高达4,614 TFLOPS,是上一代TPU v5p(459 TFLOPS)的10倍;单芯片HBM容量达到192GB,与英伟达Blackwell B200一致;内存带宽达到7,370 GB/s,远超v5p的2,765 GB/s[4] - TPU v7采用了光路交换机与3D环面网络相结合的方案,可实现所有芯片互联互通,并在芯片故障时确保计算持续运行,使谷歌液冷Ironwood系统的年可用性达到99.999%(全年停机不超过六分钟),远超基于GPU搭建的训练集群[5] - 在能效与成本方面,TPU v7的每瓦性能较上一代v6e提升了100%;在同等负载下,其推理成本比GPU旗舰系统低30%-40%,在极端场景下成本优势更大;同时能避开英伟达高昂的“CUDA税”[6] 谷歌TPU的市场影响与客户获取 - 谷歌TPU已开始侵蚀英伟达的客户生态:Meta计划从2027年开始将谷歌TPU集成到其数据中心,并签署了价值“十亿美元”的协议;Anthropic也与谷歌和博通达成协议,以获取约3.5 GW的TPU算力资源,预计从2027年起上线[7] - 谷歌的目标不仅是自用,更是将TPU推向市场,让更多英伟达的客户接受并大规模采用,旨在与英伟达在AI算力芯片市场“平分天下”甚至取代后者[3][4] AI芯片行业竞争格局演变 - 行业正从AI训练转向推理侧,AI芯片也从“通用GPU拼装”走向“高度定制的系统级协同”时代[2] - 英伟达和AMD等传统GPU巨头正面临谷歌TPU、亚马逊Trainium/Inferentia、英特尔Terafab项目等多方竞争,若不能推出压倒性技术与产品,客户群可能被逐步蚕食[8] - 国际AI芯片供应链呈现“大混战”局面,谷歌、亚马逊、微软、Meta、xAI、OpenAI及Anthropic等大厂虽与英伟达或AMD有深度合作,但私下均在自研ASIC芯片以寻求摆脱依赖[9] 国内AI芯片产业的发展趋势 - 国内AI产业后续将深度复现国际巨头间的合作模式,字节跳动、阿里、腾讯、百度等主流大厂均有传闻在自研ASIC领域有所布局,例如阿里推出了“真武810E”高端AI芯片,腾讯曝光了自研AI推理芯片“紫霄”[10] - 未来随着国内ASIC供应链发展壮大,有望形成本土“AI巨头+Fabless”共创共研的发展模式,以降低海外GPU断供风险,并为AI大厂自研ASIC芯片拓展出降低成本与风险的发展路径[10][11] - 国内拥有良好的XPU市场基础,AI大模型厂商众多,通过与国内AI大厂构建深度合作,有望助力国内Fabless实现技术、口碑与市场的全面升华,并加速走向国际市场[11]