Workflow
英伟达服务器芯片
icon
搜索文档
首次使用“非英伟达”芯片!OpenAI租用谷歌TPU,降低推理计算成本
硬AI· 2025-06-28 21:24
OpenAI转向谷歌TPU芯片 - OpenAI近期开始租用谷歌TPU芯片为ChatGPT等产品提供算力支持 这是该公司首次大规模使用非英伟达芯片 [2] - 此次合作缓解OpenAI对微软数据中心的依赖 同时为谷歌TPU挑战英伟达GPU市场主导地位提供机会 [2] - OpenAI希望通过谷歌云租用TPU芯片降低推理计算成本 [2] - ChatGPT付费订阅用户从年初1500万增长至超过2500万 每周数亿免费用户使用 算力需求快速攀升 [2] 行业芯片竞争格局 - 越来越多公司开发推理芯片以减少对英伟达依赖并长期降低成本 包括亚马逊 微软 OpenAI和Meta等 [2] - 微软造芯计划受挫 Maia 100仅用于内部测试 Braga的AI芯片面临至少六个月延迟 预计性能远低于英伟达Blackwell芯片 [2] - 谷歌云同时出租英伟达支持的服务器 因为英伟达芯片是行业标准 带来收益比出租TPU多得多 [5] - 谷歌已向英伟达订购超过100亿美元最新Blackwell服务器芯片 并于今年2月开始向部分客户提供 [5] OpenAI算力需求与支出 - OpenAI主要通过微软和甲骨文租用英伟达服务器芯片开发训练模型并为ChatGPT提供算力 [3] - 去年在服务器上支出超过40亿美元 训练和推理成本各占一半 [3] - 预计2025年在AI芯片服务器上的支出将接近140亿美元 [3] 谷歌TPU发展现状 - 谷歌约10年前开始研发TPU芯片 2017年开始向训练自有AI模型的云客户提供服务 [4] - 除OpenAI外 苹果 Safe Superintelligence和Cohere等公司也租用谷歌云TPU [4] - 谷歌向竞争对手开放TPU芯片 但会将更强大的TPU保留给自己的AI团队开发Gemini模型 [4] - Meta近期也考虑使用TPU [5] 转向TPU的直接原因 - ChatGPT图像生成工具爆红给OpenAI在微软的推理服务器带来巨大压力 [4] - 为应对计算需求增长和成本压力 OpenAI首先寻求谷歌云支持 [4]