行业核心观点 - AI算力演进聚焦Scale-Up(超节点)方向,以应对万亿参数大模型训练与推理带来的单机性能挑战 [1] - 阿里、腾讯、华为等云厂商/算力厂商的超节点渗透率有望持续超预期 [1][3] - 现阶段Scale-Up网络多采用铜缆互联,但在系统设计和传输距离上存在局限,建议关注交换设备、NPO、DAC/AEC等赛道 [1][4] AI模型推理需求驱动网络升级 - 模型推理具备长上下文、高并发、实时交互等核心特征,推动Scale-Up架构升级 [2] - 长上下文推理依赖KV Cache缓存机制,分布式环境下需频繁跨节点传输数据,对网络带宽和时延要求极高 [2] - Scale-Up架构中,所有加速器的内存呈现为单一共享池,可满足推理阶段高性能网络的带宽及时延需求 [2] 国内云厂商超节点布局加速 - 阿里云发布磐久AI Infra2.0 AL128超节点服务器,核心解决GPU互连,同等算力下推理性能可提升50% [3] - 腾讯ETH-X超节点项目分两步走:先优化GPU与内存通信的“执行顺序”,同时在研基于全光互联的“ETH-X Ultra”方案 [3] - 华为宣布3年算力计划,正在开发Ascend 950,其8192卡超节点有望在2026年第四季度推出 [3] 光互联在Scale-Up中的投资机会 - 现阶段的Scale-Up网络大多采用铜缆互联方案,存在传输距离和系统设计局限 [1][4] - 以英伟达GB200 NVL 72为例,其机柜内部采用铜缆全连接,但受限于链接距离,通常限制在一个机柜内,给供电、制冷、布线带来挑战 [4] - 随着Scale-Up扩展到百卡甚至千卡级别,铜互联因距离限制无法覆盖,光互联优势凸显:有源AEC 100G/lane传输距离仅7米,而光互联可覆盖几十米至几百米 [4]
广发证券:ODCC举办2026超节点大会 重视光互联Scale-Up投资机会