推理成本
搜索文档
AI 霸主谷歌的反击:为什么说 4 万亿市值只是一个开始?
36氪· 2025-11-28 13:51
文章核心观点 - 谷歌凭借其自研TPU芯片带来的推理成本优势、Gemini 3模型的技术领先以及庞大的用户入口,在AI时代构建了强大的护城河和全栈主权,公司正迎来价值重估,股价突破300美元是其通往更高市值的新起点 [1][3][17] TPU算力优势与成本护城河 - AI算力需求重心正从训练转向推理,预计到2030年75%的AI计算需求将集中在推理层 [4] - 谷歌自研的TPU是专为神经网络设计的专用芯片,其最新一代TPU v7在每瓦性能上比上一代提升100%,在优化环境下推理性能比英伟达H100高出4倍 [5] - 凭借TPU的低成本优势,谷歌云业务可保持50%以上的毛利率,而依赖英伟达GPU的竞争对手毛利率可能被压缩至30% [6] - 推理成本是持续的运营开支,OpenAI预计2024年推理成本高达23亿美元,而谷歌TPU可带来显著的“推理套利”机会 [4][6] 模型与技术产品进展 - 谷歌发布的新模型Gemini 3展现出“原生多模态”能力,并能处理长上下文窗口,从聊天机器人进化为智能体 [7] - 端侧模型Nano Banana Pro专为移动设备优化,可通过谷歌庞大的分发渠道(如Android的30亿活跃设备)进行“零边际成本”的分发 [7][8][10] - 谷歌的模型优势正吸引其他公司使用其TPU,例如OpenAI已开始租赁谷歌TPU用于ChatGPT推理,Midjourney迁移至TPU v4后推理成本降低65% [7] 商业模式演进与广告价值 - AI正在将搜索从“寻找链接”变为“决策引擎”,生成式搜索体验能提供结构化答案,从而捕获“高意图”流量 [1][16] - 高意图流量有望大幅提升广告转化率,从而支撑更高的广告单价,类似Meta向移动端转型后广告单价提升的逻辑 [14][16] - 即使AI对传统搜索构成挑战,谷歌的搜索业务仍是一台每年产生数千亿自由现金流的强大引擎 [13] 市场地位与竞争优势 - 谷歌是唯一一家集齐“最强模型、最强算力、最大入口”并实现垂直整合的公司,拥有“全栈主权” [2][17] - 公司拥有庞大的用户入口,包括Android全球30亿活跃设备、Chrome浏览器及Search搜索等 [8] - 与微软+OpenAI的强强联合或Meta的开源策略相比,谷歌将芯片、模型、入口和资金四层能力完美内化,优势独特 [17] 财务与估值视角 - 公司当前市盈率约为27倍,在AI概念股中具备估值吸引力,下行风险有限而上行空间巨大 [11][13] - 谷歌持续利用现金储备进行股份回购,直接提升每股收益,为股东提供确定性回报 [11] - 巴菲特旗下伯克希尔·哈撒韦大举建仓谷歌,为公司的投资价值提供了背书 [3][11]
华尔街这是“约好了一起唱空”?巴克莱:现有AI算力似乎足以满足需求
硬AI· 2025-03-27 10:52
算力供需分析 - 2025年全球AI算力可支持15-220亿个AI Agent,足以满足欧美1亿多白领和10亿企业软件许可证需求 [3][4] - 2025年全球将有1570万个AI加速器在线,其中40%(630万个)用于推理,50%推理算力(310万个)专用于Agent/聊天机器人 [4] - 现有H100等效安装基数为1570万颗,其中60%(940万颗)用于训练,40%(630万颗)用于推理,50%推理芯片(310万颗)分配给Agent服务 [5] - 使用高效模型(如DeepSeek R1)可使行业容量提升15倍,企业正转向开源模型(如Mistral)降低成本 [6][11] - 表面算力充足但存在结构性缺口,需更多专用推理芯片和训练GPU转推理用途 [13] 市场机会与竞争格局 - AI Agent市场增长潜力巨大,低推理成本和开源模型是盈利关键 [8][9] - 高效推理成本结构和专注小型高效模型的公司更具竞争优势 [13] - 超级Agent产品(如GPT-5)单月消耗3560万Token,日查询44次,远超普通Agent的2.6次 [18] 模型经济效益对比 - OpenAI o1模型Agent年成本2400美元,DeepSeek R1仅88美元,后者用户容量是前者15倍 [15] - Agent单次查询生成1万Token(传统聊天机器人400个),推理成本增加25倍 [15] - 不同模型参数差异显著:GPT-5参数1.5万亿(活跃33%),DeepSeek R1参数671亿(活跃6%) [5] 技术发展趋势 - 行业需从基准测试转向实用Agent部署,关注单位经济学 [2][13] - 更便宜/小型高效模型(如DeepSeek风格)是未来需求方向 [13]