纪要涉及的行业或公司 * 行业:人工智能基础设施(AI Infra)与算力产业链 [1] * 公司: * 云厂商:百度、阿里、华为、腾讯、火山引擎、金山云 [2][10][11][12] * AI Infra平台/工具厂商:第四范式、硅基流动、潞晨科技、商汤科技、星环科技、海天瑞声 [2][10][12] * 芯片厂商:NVIDIA(A100, H100, H800, H200)、国产芯片厂商 [5][6][7] * 其他:CoreWeave、Oracle、Hugging Face、Snowflake、Databricks [10][12] 核心观点与论据 * 算力通胀与Token供需逻辑:AI应用(Coding、Agent、多模态)爆发驱动Token消耗呈指数级增长,而算力供给受物理约束呈线性扩张,导致Token供需缺口持续扩大,预示算力价格上涨及产业链持续通胀 [1][3] * 中美算力需求路径分化: * 美国:推理算力需求启动早(2023年下半年),预计2025年推理占比达70%,训练占30% [1][4][5] * 中国:过去以训练为主,推理需求于2024年启动,预计2025年下半年随多模态与Agent能力提升迎来爆发 [1][5] * 算力形态演进: * 训练侧:向万卡、10万卡级别的大集群集中,依赖高端GPU和高速互联 [6][11] * 推理侧:向分布式、边缘及CPU+ASIC混合架构演进,强调弹性调度和按Token计费 [1][6][11] * 中国AI Infra市场格局:向头部云厂商(百度、阿里、华为等)收敛,其通过算力、模型与MLOps工具强绑定占据主导;垂直平台(如第四范式)在B端私有化市场具备差异化优势 [2][12] * 中国市场特有环节:异构AI算力芯片调度平台(如“无问星穹”),核心是跨不同国产芯片及英伟达显卡进行统一管理和调度,以解决异构算力并存问题 [10] 国内算力产业链受益传导阶段 * 第一阶段(短期):推理需求爆发最直接利好头部云厂商及提供NVIDIA算力租赁服务的厂商,因其API调用主要依赖云厂商的NVIDIA算力基础设施(如H200) [1][6][7][14] * 第二阶段(中期):随企业级Agent应用和私有化部署需求增加,国产芯片及一体机产业链将受益 [1][7][14] * 第三阶段(长期):长尾开发者和轻量化应用普及,利好端侧/边缘ASIC等轻量化算力解决方案厂商 [1][7][14] AI Infra产业链结构详解 * L1 芯片与硬件层:包括GPU(NVIDIA A100/H100等)、TPU、NPU、ASIC等芯片,以及服务器、网络设备 [9] * L2 云计算与算力平台层:将硬件资源池化,提供弹性算力,包括公有云厂商、GPU专用云、智算中心及异构算力调度平台 [9][10] * L3 AI框架与运行时层:连接硬件与上层应用的软件引擎,如TensorFlow、PyTorch、CUDA;国内有百度飞桨、华为升思 [10] * L4 数据基础设施层:涵盖数据采集、清洗、存储、管理,向量数据库因RAG和Agent兴起而重要,代表公司有星环科技、海天瑞声等 [10] * L5 工具链与MLOps层:提供模型全生命周期管理工具,包括训练框架、推理加速引擎(如硅基流动)、模型部署平台等,旨在优化成本与效率 [1][10][12] 推理成本制约与关键环节价值 * 推理成本成为核心制约因素,不同推理引擎或调度引擎可能导致成本出现数倍差异 [1][12] * L5工具链与MLOps层价值凸显,具备模型推理加速引擎(如硅基流动)和算力调度能力的厂商将获得显著溢价 [1][11][12] 投资逻辑与市场疑虑解读 * 宏观叙事优先:AI算力需求爆发式增长、需求远大于供给是“蛋糕做大”的第一层逻辑,决定中长期方向;供给侧格局变化是第二层逻辑,影响短期波动 [13] * 投资逻辑优先级:由产业链上游向下游递减,越靠近前端(上游)环节,受益确定性越高 [14] * 对云厂商的疑虑:市场关注的毛利率等问题多基于供给侧微观视角,但宏观的算力需求爆发逻辑更为重要 [13]
再论算力通胀-中美产业链区别-AI-infra产业链详解
2026-03-24 09:27