Workflow
AI算力跟踪深度:算力互连复盘与展望:网络互连带宽的增速来自哪里?
东吴证券·2025-07-23 19:34

报告行业投资评级 未提及 报告的核心观点 - 随着用户消耗Token速度提升,更大的Scale Up超节点具备的推理性能优势会越放越大,采用PCB+铜互连+光互连扩张Scale Up超节点的方案是潜在最优解之一,互连带宽需求有望随着“乘数效应”实现快速增长,且光连接、铜连接、PCB等各种互连方式都有望深度受益瓜分增量互连需求,推荐光互连、铜互连、PCB相关标的[4] - 此轮25Q2及后续行情与23Q2、24Q1 - Q2行情相比,产业链的成长逻辑已改变,有四大趋势:算力硬件需求从锚定云厂商CapEx到锚定处理Token数;算力芯片从依赖GPU到GPU+ASIC并存;技术迭代从产品级别升级转为网络架构级别整体升级;网络互连升级重心从Scale Out拓展至Scale Up,两类网络共同提升,单芯片带宽提升;后续算力互连需求发展存在乘数效应[5] 根据相关目录分别进行总结 23Q2:从应用到算力,Scale Out网络需求凸显 - 大模型显现之初,AI算力特点为通用计算切换至GPU加速计算,模型参数量、算力、数据量均指数级提升,胖树(Fat - Tree)架构成为首选,Scale out网络需求激增[18] - 传统云计算数据中心流量以“南北向”为主,网络架构多呈收敛型;AI大模型训练以“东西向”流量为主,要求实现高带宽、低延迟的无阻塞互联,胖树架构成为AI首选,该架构理论上“无收敛”,各层级网络带宽保持充裕[21] - 在典型的Fat - Tree架构下,为实现GPU间的无阻塞通信,所需高速光模块数量与GPU数量存在高配比关系,光通信成为AI基础设施的核心高价值组件[25] 24Q1 - Q2:Sora、GB200等软硬新产品+财报拉动景气度 - Sora推高多模态推理需求预期,其所需推理算力相比GPT - 4等文本模型呈现数量级的提升[27] - 英伟达业绩持续验证AI算力高景气度,自23Q1以来,营收与净利润逐季高速增长,验证了AI训练与推理的需求,及海外AI玩家的算力扩容和基础设施升级[35] - 下游云厂商资本开支持续提升,23Q2开始亚马逊、谷歌、微软、Meta四大云厂合计资本开支稳步提升[35] 25Q2起:逻辑深化产业链增速高于Capex&芯片增速 开支结构持续变化,算力产业链增速超CapEx增速 - 资本开支向AI算力倾斜,AI投资内生增长强劲,23Q1至24Q4英伟达来自云厂的DC收入与五家云厂资本开支的比值从5%逐渐增长至30%左右[37] - ASIC出货逐渐增加,AI投资内部价值有望重分配,产业链相关硬件需求增速有望高于云厂资本开支增速[42] - 资本开支结构优化对产业链增速的贡献已显现,自24Q1起四家供应链头部公司营收总和增速持续高于北美四大云厂资本开支总和增速[42] Token数成为AI闭环点,指数级增长带动推理算力需求 - Token规模指数级增长,谷歌AI月度Token量一年内激增约50倍,达到480万亿Tokens;豆包大模型5月日均处理量已突破16.4万亿,同比增长超120倍[48] - 新应用场景涌现,驱动高价值Token消耗,进一步提升算力需求,如AI搜索、AI编程、K12教育等场景Token消耗显著增长[48] - Token数成为目前AI生态的闭环点,向上关联推理的算力需求,向下形成AI增量和收入[48] AI训推计算范式推动Scale Up升级、单卡带宽提升 - AI训推需要分布式并行计算,并行计算方式有数据并行、流水线并行及张量并行,张量并行需要更高频、更低延时的数据传输,传输数据量也高出一到两个数量级,通常基于单卡带宽更高的Scale Up网络[52][56] - 单一大模型的参数量与单卡显存的差距、单卡算力与单卡显存间的差距均逐代放大,单卡运算时需从多张卡的显存读取所需参数、数据,目前产业化应用最优解是使用Scale Up网络将显存池化[59] - 通信带宽是推理速度的瓶颈,通过Scale up提升推理效率尤为重要;推理场景中P/D分离架构利于整体效率和推理体验提升,增加了对高性能硬件和复杂网络的需求[62] - Scale Out网络实现集群内所有GPU卡互联,亮点是连接GPU数量大;Scale Up网络实现超节点内所有GPU卡互联,亮点是单卡通信带宽高[66] - Scale Up超节点容量和带宽增长均可提升集群性能,GB200与B200、H200有较大性能差,除精度提升外,Scale Up超节点容量和带宽的提升也有明显贡献,随着用户消耗Token速度提升,更大的Scale Up超节点具备的推理性能优势会越放越大[75] 网络互连升级,产业链增速高于Capex&芯片增速 - 亚马逊Trn2 - Ultra64超级服务器使用AEC做柜间互联,DAC做柜内互联,单个芯片基于NeuronLinkv3可实现640GB/s(即5120Gb/s)带宽的Scale Up网络;Meta Minerva机柜把Scale Out、Up机柜都放在柜内,带宽51.2T、204.8T,单卡带宽3.2T、12.8T[80] - AI算力互连的成长逻辑有四大变化趋势:算力硬件需求从锚定云厂商CapEx到锚定处理Token数;算力芯片从依赖GPU到GPU+ASIC并存;技术迭代从产品级别升级转为网络架构级别整体升级;网络互连升级重心从Scale Out拓展至Scale Up,两类网络共同提升,单芯片带宽提升[85] - 后续算力互连需求发展存在乘数效应:资本开支结构优化,算力芯片增长速度高于资本开支增速;单芯片带宽提升,算力互连需求增速高于芯片需求增速[88] 投资建议 - 互连带宽需求有望随着“乘数效应”快速增长,光连接、铜连接、PCB等各种互连方式有望深度受益瓜分增量互连需求,推荐光互连标的如中际旭创、新易盛等;铜互连标的如兆龙互连、中际旭创等;PCB标的如胜宏科技、景旺电子等[90]