升思
搜索文档
再论算力通胀-中美产业链区别-AI-infra产业链详解
2026-03-24 09:27
纪要涉及的行业或公司 * **行业**:人工智能基础设施(AI Infra)与算力产业链 [1] * **公司**: * **云厂商**:百度、阿里、华为、腾讯、火山引擎、金山云 [2][10][11][12] * **AI Infra平台/工具厂商**:第四范式、硅基流动、潞晨科技、商汤科技、星环科技、海天瑞声 [2][10][12] * **芯片厂商**:NVIDIA(A100, H100, H800, H200)、国产芯片厂商 [5][6][7] * **其他**:CoreWeave、Oracle、Hugging Face、Snowflake、Databricks [10][12] 核心观点与论据 * **算力通胀与Token供需逻辑**:AI应用(Coding、Agent、多模态)爆发驱动Token消耗呈指数级增长,而算力供给受物理约束呈线性扩张,导致Token供需缺口持续扩大,预示算力价格上涨及产业链持续通胀 [1][3] * **中美算力需求路径分化**: * **美国**:推理算力需求启动早(2023年下半年),预计2025年推理占比达70%,训练占30% [1][4][5] * **中国**:过去以训练为主,推理需求于2024年启动,预计2025年下半年随多模态与Agent能力提升迎来爆发 [1][5] * **算力形态演进**: * **训练侧**:向万卡、10万卡级别的大集群集中,依赖高端GPU和高速互联 [6][11] * **推理侧**:向分布式、边缘及CPU+ASIC混合架构演进,强调弹性调度和按Token计费 [1][6][11] * **中国AI Infra市场格局**:向头部云厂商(百度、阿里、华为等)收敛,其通过算力、模型与MLOps工具强绑定占据主导;垂直平台(如第四范式)在B端私有化市场具备差异化优势 [2][12] * **中国市场特有环节**:异构AI算力芯片调度平台(如“无问星穹”),核心是跨不同国产芯片及英伟达显卡进行统一管理和调度,以解决异构算力并存问题 [10] 国内算力产业链受益传导阶段 * **第一阶段(短期)**:推理需求爆发最直接利好**头部云厂商**及提供**NVIDIA算力租赁**服务的厂商,因其API调用主要依赖云厂商的NVIDIA算力基础设施(如H200) [1][6][7][14] * **第二阶段(中期)**:随企业级Agent应用和私有化部署需求增加,**国产芯片及一体机产业链**将受益 [1][7][14] * **第三阶段(长期)**:长尾开发者和轻量化应用普及,利好**端侧/边缘ASIC**等轻量化算力解决方案厂商 [1][7][14] AI Infra产业链结构详解 * **L1 芯片与硬件层**:包括GPU(NVIDIA A100/H100等)、TPU、NPU、ASIC等芯片,以及服务器、网络设备 [9] * **L2 云计算与算力平台层**:将硬件资源池化,提供弹性算力,包括公有云厂商、GPU专用云、智算中心及**异构算力调度平台** [9][10] * **L3 AI框架与运行时层**:连接硬件与上层应用的软件引擎,如TensorFlow、PyTorch、CUDA;国内有百度飞桨、华为升思 [10] * **L4 数据基础设施层**:涵盖数据采集、清洗、存储、管理,向量数据库因RAG和Agent兴起而重要,代表公司有星环科技、海天瑞声等 [10] * **L5 工具链与MLOps层**:提供模型全生命周期管理工具,包括训练框架、**推理加速引擎**(如硅基流动)、模型部署平台等,旨在优化成本与效率 [1][10][12] 推理成本制约与关键环节价值 * **推理成本成为核心制约因素**,不同推理引擎或调度引擎可能导致成本出现数倍差异 [1][12] * **L5工具链与MLOps层价值凸显**,具备**模型推理加速引擎**(如硅基流动)和**算力调度能力**的厂商将获得显著溢价 [1][11][12] 投资逻辑与市场疑虑解读 * **宏观叙事优先**:AI算力需求爆发式增长、需求远大于供给是“蛋糕做大”的第一层逻辑,决定中长期方向;供给侧格局变化是第二层逻辑,影响短期波动 [13] * **投资逻辑优先级**:由产业链上游向下游递减,越靠近前端(上游)环节,受益确定性越高 [14] * **对云厂商的疑虑**:市场关注的毛利率等问题多基于供给侧微观视角,但宏观的算力需求爆发逻辑更为重要 [13]