效率瓶颈取代算力焦虑:光模块与存储如何重写AI估值表?
美股研究社·2026-04-17 18:56

核心观点 - 市场投资焦点正从“算力本身”转向“算力能否被有效调度与利用”,即从关注峰值算力转向关注有效算力 [1][9] - AI产业的核心矛盾已从“算力是否增长”转向“哪些环节成为算力扩张的约束条件”,约束环节获得定价权 [2][8] - 随着超大规模AI集群的发展,算力不再稀缺,真正稀缺的是“把算力用满的能力”,系统效率的瓶颈成为新的投资焦点 [3][8][18] 行业趋势与变化 - 进入2026年,资金开始从“算力本身”转向“算力能否被有效调度与利用” [1] - 机构配置重心正从GPU与AI服务器本体,优先转向“供不应求”的组件层 [2] - AI产业的第一阶段围绕算力芯片展开,但进入2026年,算力本身不再是唯一瓶颈 [4][6] - 随着集群规模从数千卡扩展至数万甚至十万卡,训练效率由网络带宽、通信延迟、能效比与拓扑结构共同决定,算力提升正被“互连能力”限制 [6] - 资本市场的评估焦点,从“峰值算力”转向“有效算力” [9] - AI投资正在从最显眼的环节(如GPU),转向最紧缺的环节(如光互连与存储) [14] - AI产业链正在形成新的“瓶颈轮动”:第一阶段瓶颈是算力芯片,第二阶段是网络与互连,第三阶段是数据存储与管理 [14] 关键约束环节分析:光互连 - 光互连从“可选项”变为“必选项”,技术路线收敛反映产业对同一瓶颈的共识 [6] - 随着AI集群规模扩大,传统铜缆方案在功耗与散热上问题放大,当单机柜功耗突破100kW,电信号传输的损耗与发热成为不可接受的系统负担,迫使行业转向光学方案 [12] - 这种替代是“非用不可”的,供应商获得技术路径锁定带来的定价权 [12] - 800G光模块核心组件的供应商高度集中,认证周期长达12-18个月,这种“慢认证+高粘性”特征使上游供应商拥有隐性议价权 [12] - Lumentum披露800G/1.6T光模块订单排产可能提前锁定至2028年,且被头部云厂商以数十亿美元级别预付产能 [2] - 博通、Coherent、Lumentum在OFC 2026集中强调1.6T/3.2T光模块与CPO技术路线 [6] 关键约束环节分析:存储 - 存储已从“配套资源”变成“核心约束” [6] - AI数据中心对内存带宽与容量的刚性需求驱动价格上涨,而非传统消费电子周期回暖 [7] - HBM(高带宽内存)已从“高端产品”变成“必需品” [11] - 大模型训练对内存带宽的需求呈指数级增长,而供给侧受制于先进封装产能与材料良率,价格弹性让位于供给刚性 [11] - 以HBM3E为例,单颗封装容量已突破48GB,带宽超过1.2TB/s,但其产能受限于TSV工艺良率与CoWoS封装产能,短期难以快速扩张 [7] - 服务器DRAM价格在2026年一季度录得89%的环比涨幅,企业级NAND价格录得78%的环比涨幅 [2] - 存储供需错配预计延续至2028年前后 [7] - 希捷推动40TB HAMR技术、西部数据出现极端级别重估,价格上涨背后是供给侧的克制与需求侧的刚性共同作用 [11][12] 市场规模与资本行为 - 光模块、交换芯片与存储控制器的目标市场规模,被多家投行同步上修至2028年超过1400亿美元 [2] - 法巴银行上调光模块、交换芯片与存储控制器目标价,反映结构性变化 [12] - 市场分歧在于:一部分投资者视当前行情为“半导体周期复苏”;另一部分开始按“基础设施稀缺资源”重新定价,后者关注技术壁垒与产能锁定能力 [12] 投资逻辑迁移 - 投资逻辑从“寻找最强”转向“识别最缺” [18] - 关键不在于找到“最热门的公司”,而是识别下一轮瓶颈所在的位置 [15] - 需要关注技术路线的收敛速度、产能扩张的资本开支强度、以及客户结构的集中度 [15] - 微观信号如头部云厂商以长期协议锁定光模块产能、存储原厂将更多晶圆产能分配给HBM而非消费级产品,比宏观叙事更早指向定价权转移 [15][16] - 法巴银行的推荐名单(如Arista Networks, Fabrinet, Ciena, Marvell Technology, Credo Technology)围绕“数据如何流动与存储”这一核心问题展开 [14] - 在算力扩张中,最终沉淀利润的往往是解决数据流动与存储约束的基础设施提供者,而非芯片设计者 [18]

效率瓶颈取代算力焦虑:光模块与存储如何重写AI估值表? - Reportify