Workflow
推理计算成本
icon
搜索文档
首次大规模使用“非英伟达”芯片,OpenAI租用谷歌TPU,降低推理计算成本
华尔街见闻· 2025-06-29 14:11
英伟达芯片主导地位受挑战 - OpenAI首次大规模租用谷歌TPU芯片为ChatGPT等产品提供算力支持 标志着非英伟达芯片进入主流AI应用场景[1] - 合作使OpenAI降低对微软数据中心依赖 同时为谷歌TPU挑战英伟达GPU市场地位创造机会[1] - OpenAI采用TPU主要目的为降低推理计算成本 ChatGPT付费用户从1500万增至2500万 免费用户达数亿/周 算力需求激增[1] 行业多元化芯片布局加速 - 亚马逊 微软 OpenAI Meta等科技巨头已启动自研推理芯片计划 以降低对英伟达依赖和长期成本[1] - 微软自研芯片进展受阻 Maia 100仅内部测试 Braga芯片延迟6个月以上且性能预计远逊于英伟达Blackwell[1] - 谷歌向OpenAI等竞争对手开放TPU租赁 但保留最强算力TPU供自身Gemini模型开发使用[2] OpenAI算力支出与需求激增 - 2023年OpenAI在英伟达服务器芯片支出超40亿美元 训练与推理成本各占一半[2] - 预计2025年AI芯片服务器支出将达140亿美元 ChatGPT图像生成工具爆红加剧推理服务器压力[2] - 除OpenAI外 苹果 Safe Superintelligence Cohere等公司也租用谷歌TPU 部分因员工熟悉TPU运作[2] 谷歌云芯片战略布局 - 谷歌10年前开始研发TPU 2017年起向云客户提供TPU租赁服务[2] - 谷歌云同时出租英伟达服务器芯片 因其仍是行业标准且收益高于TPU[4] - 谷歌已订购超100亿美元英伟达Blackwell芯片 2024年2月开始向客户供货[4] Meta潜在芯片策略调整 - 同为顶级AI芯片客户的Meta正考虑采用谷歌TPU芯片[3]