Workflow
首次使用“非英伟达”芯片!OpenAI租用谷歌TPU,降低推理计算成本
华尔街见闻·2025-06-28 11:29

英伟达芯片主导地位受挑战 - OpenAI首次大规模租用谷歌TPU芯片为ChatGPT等产品提供算力支持 此举旨在降低对微软数据中心和英伟达GPU的依赖[1] - 谷歌TPU获得挑战英伟达市场地位的机会 合作帮助OpenAI降低推理计算成本[1] - ChatGPT付费用户从年初1500万增至超2500万 每周数亿免费用户导致算力需求激增[1] 行业转向自主芯片研发 - 亚马逊 微软 OpenAI Meta等公司已启动自研推理芯片计划 以减少对英伟达依赖并控制长期成本[1] - 微软自研芯片Maia 100仅用于内部测试 Braga AI芯片面临至少6个月延迟 性能预计远低于英伟达Blackwell[1] - 谷歌10年前开始研发TPU 2017年起向云客户提供服务 除OpenAI外苹果 Safe Superintelligence Cohere等公司也在使用[2] OpenAI算力支出与需求激增 - OpenAI去年在英伟达服务器芯片支出超40亿美元 训练与推理成本各占一半 预计2025年AI芯片支出将达140亿美元[2] - ChatGPT图像生成工具爆红导致微软推理服务器压力骤增 直接推动OpenAI转向谷歌TPU[2] - 谷歌向竞争对手开放TPU但保留最强版本供自身Gemini模型开发使用[2] 谷歌云芯片业务现状 - 谷歌云同时出租英伟达服务器和TPU 因行业标准原因英伟达芯片收益仍显著高于TPU[3] - 谷歌已订购超100亿美元英伟达Blackwell服务器芯片 2024年2月开始向部分客户提供[3] - Meta作为全球最大AI芯片客户之一 近期考虑使用谷歌TPU[2]