Workflow
算力互连
icon
搜索文档
科创AIETF(588790)盘中震荡上扬,近1年日均成交额句同类产品第一,AI算力互连需求呈现快速增长趋势
新浪财经· 2025-07-24 13:31
市场表现 - 上证科创板人工智能指数(950180)上涨0.60%,成分股合合信息(688615)上涨4.27%,福昕软件(688095)上涨3.65%,天准科技(688003)上涨2.97%,复旦微电(688385)上涨2.50%,星环科技(688031)上涨1.90% [2] - 科创AIETF(588790)上涨0.68%,最新价报0.6元,近1周累计上涨0.85% [2] - 科创AIETF近6月净值上涨9.21%,居可比基金第一,自成立以来最高单月回报为15.59%,最长连涨涨幅为26.17%,历史持有6个月盈利概率为100.00% [4] 流动性及资金流向 - 科创AIETF盘中换手2.88%,成交1.38亿元,近1年日均成交2.60亿元,排名可比基金第一 [2] - 科创AIETF近1周规模增长2821.98万元,份额增长4500.00万份,新增规模和份额均位居可比基金1/7 [3] - 科创AIETF最新资金净流出1064.77万元,近5个交易日内有3日资金净流入,合计5309.03万元,日均净流入1061.81万元 [3] - 科创AIETF连续5天获杠杆资金净买入,最高单日获得1.48亿元净买入,最新融资余额达4.76亿元 [4] 行业动态 - 二季度主动权益类基金的科创板股票配置比例创历史新高,科创板主题基金规模突破3000亿元,机构表示将加大科创板主题产品布局 [2] - AI算力互连需求快速增长,Scale Up超节点在推理性能上的优势明显,采用PCB+铜互连+光互连的方案有望成为最优解之一 [3] - 算力芯片需求增速高于资本开支增速,单芯片带宽提升带动互连需求增长,形成"乘数效应",建议关注光互连、铜互连、PCB等细分领域 [3] 产品特性 - 科创AIETF管理费率为0.50%,托管费率为0.10%,费率在可比基金中处于较低水平 [5] - 科创AIETF近1月跟踪误差为0.014%,在可比基金中跟踪精度较高 [5] - 上证科创板人工智能指数选取30只为人工智能提供基础资源、技术及应用的科创板上市公司证券,前十大权重股合计占比68.03% [5] 指数成分 - 上证科创板人工智能指数前十大权重股包括寒武纪(688256)、澜起科技(688008)、金山办公(688111)、芯原股份(688521)、石头科技(688169)、恒玄科技(688608)、晶晨股份(688099)、复旦微电(688385)、中科星图(688568)、道通科技(688208) [5]
AI算力跟踪深度:算力互连复盘与展望:网络互连带宽的增速来自哪里?
东吴证券· 2025-07-23 19:34
报告行业投资评级 未提及 报告的核心观点 - 随着用户消耗Token速度提升,更大的Scale Up超节点具备的推理性能优势会越放越大,采用PCB+铜互连+光互连扩张Scale Up超节点的方案是潜在最优解之一,互连带宽需求有望随着“乘数效应”实现快速增长,且光连接、铜连接、PCB等各种互连方式都有望深度受益瓜分增量互连需求,推荐光互连、铜互连、PCB相关标的[4] - 此轮25Q2及后续行情与23Q2、24Q1 - Q2行情相比,产业链的成长逻辑已改变,有四大趋势:算力硬件需求从锚定云厂商CapEx到锚定处理Token数;算力芯片从依赖GPU到GPU+ASIC并存;技术迭代从产品级别升级转为网络架构级别整体升级;网络互连升级重心从Scale Out拓展至Scale Up,两类网络共同提升,单芯片带宽提升;后续算力互连需求发展存在乘数效应[5] 根据相关目录分别进行总结 23Q2:从应用到算力,Scale Out网络需求凸显 - 大模型显现之初,AI算力特点为通用计算切换至GPU加速计算,模型参数量、算力、数据量均指数级提升,胖树(Fat - Tree)架构成为首选,Scale out网络需求激增[18] - 传统云计算数据中心流量以“南北向”为主,网络架构多呈收敛型;AI大模型训练以“东西向”流量为主,要求实现高带宽、低延迟的无阻塞互联,胖树架构成为AI首选,该架构理论上“无收敛”,各层级网络带宽保持充裕[21] - 在典型的Fat - Tree架构下,为实现GPU间的无阻塞通信,所需高速光模块数量与GPU数量存在高配比关系,光通信成为AI基础设施的核心高价值组件[25] 24Q1 - Q2:Sora、GB200等软硬新产品+财报拉动景气度 - Sora推高多模态推理需求预期,其所需推理算力相比GPT - 4等文本模型呈现数量级的提升[27] - 英伟达业绩持续验证AI算力高景气度,自23Q1以来,营收与净利润逐季高速增长,验证了AI训练与推理的需求,及海外AI玩家的算力扩容和基础设施升级[35] - 下游云厂商资本开支持续提升,23Q2开始亚马逊、谷歌、微软、Meta四大云厂合计资本开支稳步提升[35] 25Q2起:逻辑深化产业链增速高于Capex&芯片增速 开支结构持续变化,算力产业链增速超CapEx增速 - 资本开支向AI算力倾斜,AI投资内生增长强劲,23Q1至24Q4英伟达来自云厂的DC收入与五家云厂资本开支的比值从5%逐渐增长至30%左右[37] - ASIC出货逐渐增加,AI投资内部价值有望重分配,产业链相关硬件需求增速有望高于云厂资本开支增速[42] - 资本开支结构优化对产业链增速的贡献已显现,自24Q1起四家供应链头部公司营收总和增速持续高于北美四大云厂资本开支总和增速[42] Token数成为AI闭环点,指数级增长带动推理算力需求 - Token规模指数级增长,谷歌AI月度Token量一年内激增约50倍,达到480万亿Tokens;豆包大模型5月日均处理量已突破16.4万亿,同比增长超120倍[48] - 新应用场景涌现,驱动高价值Token消耗,进一步提升算力需求,如AI搜索、AI编程、K12教育等场景Token消耗显著增长[48] - Token数成为目前AI生态的闭环点,向上关联推理的算力需求,向下形成AI增量和收入[48] AI训推计算范式推动Scale Up升级、单卡带宽提升 - AI训推需要分布式并行计算,并行计算方式有数据并行、流水线并行及张量并行,张量并行需要更高频、更低延时的数据传输,传输数据量也高出一到两个数量级,通常基于单卡带宽更高的Scale Up网络[52][56] - 单一大模型的参数量与单卡显存的差距、单卡算力与单卡显存间的差距均逐代放大,单卡运算时需从多张卡的显存读取所需参数、数据,目前产业化应用最优解是使用Scale Up网络将显存池化[59] - 通信带宽是推理速度的瓶颈,通过Scale up提升推理效率尤为重要;推理场景中P/D分离架构利于整体效率和推理体验提升,增加了对高性能硬件和复杂网络的需求[62] - Scale Out网络实现集群内所有GPU卡互联,亮点是连接GPU数量大;Scale Up网络实现超节点内所有GPU卡互联,亮点是单卡通信带宽高[66] - Scale Up超节点容量和带宽增长均可提升集群性能,GB200与B200、H200有较大性能差,除精度提升外,Scale Up超节点容量和带宽的提升也有明显贡献,随着用户消耗Token速度提升,更大的Scale Up超节点具备的推理性能优势会越放越大[75] 网络互连升级,产业链增速高于Capex&芯片增速 - 亚马逊Trn2 - Ultra64超级服务器使用AEC做柜间互联,DAC做柜内互联,单个芯片基于NeuronLinkv3可实现640GB/s(即5120Gb/s)带宽的Scale Up网络;Meta Minerva机柜把Scale Out、Up机柜都放在柜内,带宽51.2T、204.8T,单卡带宽3.2T、12.8T[80] - AI算力互连的成长逻辑有四大变化趋势:算力硬件需求从锚定云厂商CapEx到锚定处理Token数;算力芯片从依赖GPU到GPU+ASIC并存;技术迭代从产品级别升级转为网络架构级别整体升级;网络互连升级重心从Scale Out拓展至Scale Up,两类网络共同提升,单芯片带宽提升[85] - 后续算力互连需求发展存在乘数效应:资本开支结构优化,算力芯片增长速度高于资本开支增速;单芯片带宽提升,算力互连需求增速高于芯片需求增速[88] 投资建议 - 互连带宽需求有望随着“乘数效应”快速增长,光连接、铜连接、PCB等各种互连方式有望深度受益瓜分增量互连需求,推荐光互连标的如中际旭创、新易盛等;铜互连标的如兆龙互连、中际旭创等;PCB标的如胜宏科技、景旺电子等[90]