Workflow
5月Call海外AI算力链逻辑:兑现节奏预判
英伟达英伟达(US:NVDA)2025-06-30 09:02

纪要涉及的行业和公司 - 行业:海外AI算力链、大模型行业 - 公司:OpenAI、谷歌、微软、博通、英伟达、台积电、赛灵思、Meta、Amazon、XAI、Mana 纪要提到的核心观点和论据 海外算力需求趋势 - 显著趋势:5月起海外算力需求变化显著,微软和谷歌TOKEN量增加,推理需求快速上升;科技公司未削减资本开支,OpenAI等积极建设大规模集群,如马斯克集群达35万卡,表明训练算力需求一直存在但此前未充分满足[2] - 算力需求结构变化:上半年推理需求上升,下半年训练需求预计增加,大集群需求同步上升;2025年算力需求从训练驱动转向推理驱动,2024年之前训练占比超50%,2025年降至40%多,预计2026年降至30%多,推理占比从20% - 30%增长到2025年的50%以上,预计2026年达60%以上[1][7][17] AI领域叙事逻辑 - new skilling逻辑:2025年下半年AI领域新叙事逻辑围绕new skilling展开,关注模型下一代迭代路径和训练需求;TOKEN量与算力需求非线性关系,TOKEN量翻倍算力需求可能增十倍以上[1][3][4] 海外AI产业发展 - 发展速度:过去半年海外AI产业发展迅速,但国内关注少、投资者理解有限;赛灵思等公司股价上涨表明市场逐步接受变化,行情接近尾声时市场将完全接受信息[5] - 新一轮迭代周期:美国将进入新一轮AI迭代周期,大集群交付推动新模型训练,目标是寻找下一代模型迭代路径;中美基座模型能力差距将拉大,应关注美国AI变化并投资相关资产或公司[6] 美股创新高反映的产业变化 - 产业变化体现:微软、博通、英伟达和台积电等公司股价创新高,反映海外算力链投资逻辑兑现,市场对这些公司认可推动产业发展,预示训练和推理需求预期上升[1][8] OpenAI与谷歌合作影响 - 合作影响:OpenAI与谷歌合作采购TPU,打开谷歌TPU和ASIC市场空间;表明云服务厂商重要性,强调卡不够用问题,推动行业发展[7][9] 跟踪算力需求方法 - 推理需求跟踪:可通过台湾产业数据、观察爆款应用或模型跟踪,但跟踪TOKEN量更有效,TOKEN量增加表明推理需求增长[11] - 训练需求跟踪:跟踪训练需求挑战大,可观察公司建设大型集群情况,如马斯克计划建100万卡集群支持GROK4模型,大型集群在建扩产表明训练算力投入有效[12][13] 投资策略调整 - 避免依赖爆款:爆款模型和应用出现具偶然性,投资者不应仅据此决策,应关注长期趋势和基础数据[15] - 关注美国市场:亚太地区投资者应关注美国模型及应用发展,及时调整策略;当前台湾产业链数据对预测美股和A股相关公司表现支持力度减弱,应研究美国市场获取前瞻性信息[16][17][18] 大模型行业竞争格局 - 主要引领者:下一代大模型开发主要引领者是OpenAI和XAI,谷歌介于追随者和引领者之间,Meta积极进行人才储备[26] - 大集群战略影响:大集群战略成下一代模型训练重要门槛,马斯克将门槛提高到100万张卡集群,预计明年下半年XAI交付全球第一个百万卡集群,OpenAI可能紧随其后;多数公司因成本高选择跟随策略[29] - 公司竞争策略:谷歌、Amazon等公司不采用大集群战略,依靠已有用户数据和场景发展;企业为保持领先需迅速建集群、挖掘人才,在推理方面大规模投入[30][31] 未来需求趋势和验证节点 - 需求趋势:未来海外算力链需求共振向上,目前推理需求向上,下半年训练需求增加;推理更具持续性且有预期差,海外算力链处于新起点,上涨趋势未结束[35][36] - 验证节点:7月中旬国内大厂业绩预告验证业务表现;7月底微软、亚马逊和Meta资本开支数据验证推理需求;8月底英伟达季报验证训练需求;7月4日马斯克GROK4发布、8月GPT - 5发布推动算力需求[37] 海外市场交易逻辑 - 交易逻辑:海外市场对AI产业链交易基于订单清晰度,订单至少看到2027年,行情透支2026年业绩;美股波动影响全球市场[38] 其他重要但可能被忽略的内容 - 谷歌和Meta推理占比:2025年底谷歌和Meta推理占比预计达50% - 60%,博通基本都是推理,大厂推理占比可能达70% - 90%以上,全球年底推理占比将超60%[21] - 海外AI应用量增长原因:2025年二三月份海外AI应用量显著增长,因DEEPSEC21技术发布及成本降低,推动高消耗TOKEN量应用发展[22] - TOKEN量与算力需求关系:TOKEN量增加不一定导致算力需求增加,还受单位TOKEN成本影响;目前TOKEN使用程度提高,算力需求仍可能显著提升;TOKEN量放大一倍需算力放大十倍[23][40] - 电力、算力和TOKEN关系:三者存在一一对应关系,可相互换算,忽略单个TOKEN成本和功耗变化后关系稳定[25] - XAI大规模训练原因:XAI进展迅速,集群规模不断扩大,其他公司因各种原因未进行全训练,如OpenAI资源不足,谷歌架构优化迭代模型能力[28] - 英伟达和台积电表现:英伟达和台积电持续创新高,原因超出传统跟踪路径解释范围,表明海外AI市场上一代模型训练与下一轮训练叠加共振[39]