纪要涉及的行业和公司 - 行业:人工智能芯片行业、云计算行业 - 公司:Google、OpenAI、Nvidia、Microsoft、Oracle、Apple、Safe Superintelligence、Cohere、Meta Platforms、Amazon、CoreWeave、Anthropic [1][6][7][17] 纪要提到的核心观点和论据 - 核心观点1:OpenAI开始租用Google的TPU芯片 - 论据:OpenAI是Nvidia人工智能芯片的大客户,近期开始租用Google的AI芯片为ChatGPT等产品提供算力,这是其首次有意义地使用非Nvidia芯片;OpenAI希望通过Google Cloud租用的TPU芯片降低推理计算成本;ChatGPT付费订阅用户从年初的1500万增至超2500万,每周还有数亿人免费使用,计算需求快速上升,去年使用服务器花费超40亿美元,预计2025年在AI芯片服务器上花费近140亿美元 [1][2][3] - 核心观点2:Google在AI芯片出租业务上的策略与现状 - 论据:Google长期发展与AI相关的软硬件技术和业务,此次交易可能是其策略的回报;Google未向竞争对手OpenAI出租最强大的TPU,主要为自己的AI团队开发Gemini模型保留;Google Cloud也出租Nvidia芯片服务器,且收入远超出租TPU芯片,此前已订购超100亿美元的Nvidia Blackwell服务器芯片并于2月向部分客户提供;Google约10年前开始研发TPU,2017年向有兴趣训练自己AI模型的云客户提供 [2][5][7][9] - 核心观点3:其他公司对TPU芯片的使用情况 - 论据:Apple、Safe Superintelligence和Cohere等公司从Google Cloud租用TPU,部分原因是这些公司的员工曾在Google工作,熟悉TPU;Meta曾考虑使用TPU,但表示目前未使用 [6] - 核心观点4:Google为满足客户需求寻求外部数据中心空间 - 论据:OpenAI与Google的交易使Google Cloud数据中心容量紧张;Google向其他主要出租Nvidia GPU的云提供商询问是否会在数据中心安装TPU,还与CoreWeave讨论在其数据中心租赁TPU空间,但不清楚是否达成协议;Google Cloud发言人称此举是为满足单个客户的短期需求,不改变其将TPU保留在自己数据中心的策略 [11][14][15] - 核心观点5:行业内减少对Nvidia依赖的趋势 - 论据:虽然目前没有公司在AI训练方面能与Nvidia芯片的性能相匹配,但众多公司一直在开发推理芯片,以减少对Nvidia的依赖并降低长期成本;Amazon、Microsoft、OpenAI和Meta等公司已开始开发自己的推理芯片,但云提供商在吸引大客户使用Nvidia芯片替代品时需提供财务激励,如Anthropic使用Amazon和Google的AI芯片并获得了数亿美元的资金支持 [11][16][17][18] - 核心观点6:OpenAI与Google的合作对Microsoft的影响 - 论据:OpenAI与Google的芯片交易可能对其亲密合作伙伴和早期支持者Microsoft造成挫折;Microsoft投入大量资金开发希望OpenAI使用的AI芯片,但开发遇到问题,推迟了下一代芯片的发布时间,届时可能无法与Nvidia芯片竞争 [19] 其他重要但可能被忽略的内容 - OpenAI发言人称目前没有“具体使用TPU的计划” [5] - 不清楚OpenAI是否想用TPU进行AI训练 [5] - 不清楚Google是否为吸引OpenAI使用TPU提供折扣或信用激励 [18]
谷歌说服 OpenAI 使用 TPU 芯片,在与英伟达的竞争中获胜— The Information