行业趋势:算力需求与架构演进 - 主流大模型参数已从千亿级跃升至万亿级规模,驱动算力需求持续爆发式增长,EFLOPS算力级别、万卡级别高性能集群成为大模型标配 [2] - 为满足苛刻的算力要求,行业正从追求通用性和灵活性的解耦设计,转向通过牺牲部分通用性以换取性能极致优化的新架构 [3] - 构建大规模智算集群的主流架构思路是:先通过Scale-up策略将数百张加速卡集成为内部高速互联的超节点,再将这些超节点作为标准单元进行Scale-out横向扩展,最终构筑万卡规模集群 [6] - 行业目标持续升级,从千卡、万卡集群向未来的几十万卡甚至百万卡集群迈进,高速互连的重要性愈加凸显 [7] 产品创新:超节点与万卡集群 - 超节点因密度和性能优势,正成为新建万卡集群的首选架构之一,其将大量AI加速卡以超高密度集成在单个或少数几个机柜内,通过内部高速总线或专用互连网络,实现“物理多机、逻辑单机”的新型计算单元 [3] - 中科曙光于2025年11月发布全球首个单机柜级640卡超节点——scaleX640,这是全球已公开的在单个机柜内集成加速卡数量最多的超节点产品 [3] - scaleX640采用超高密度刀片、浸没相变液冷等技术,将单机柜算力密度提升20倍,PUE值低至1.04 [1] - 中科曙光于2025年12月18日发布并展出了scaleX万卡超集群,由16个scaleX640超节点通过scaleFabric高速网络互连而成,实现10240块AI加速卡部署,总算力规模超5EFlops,这是国产万卡级AI集群系统首次以真机形式亮相 [4][5] - 华为昇腾384超节点真机也在2025年世界人工智能大会期间首秀,标志着国产算力“大基建”正从图纸走进现实 [1] 技术突破:高速互连与网络 - 在单机柜内把芯片互连规模做大,可以让芯片之间的互连更加可靠、高效,因为柜内互联采用高效低成本的电信号,而柜间则依赖高功耗、高成本的光模块 [3] - 在超节点间,曙光scaleFabric网络基于国内首款400G类InfiniBand的原生RDMA网卡与交换芯片,可实现400Gb/s超高带宽、低于1微秒端侧通信延迟,并可将超集群规模扩展至10万卡以上 [7] - 相比传统IB网络,scaleFabric网络性能提升2.33倍,同时网络总体成本降低30% [7] - 自研原生RDMA高速网络至关重要,其角色类似于英伟达生态中基于Mellanox技术的InfiniBand网络,承担着节点间Scale-Out的重任 [7] 挑战与产业链影响 - 超节点面临海量芯片协同工作带来的系统散热压力、多芯片间光/铜混合互连方案引发的稳定性问题,以及多零部件长期运行下的可靠性隐患等复杂系统性挑战 [8] - 解决上述问题需要服务器厂商与上游各环节厂商深度协同,探索全局最优解决方案,这使得整机环节在产业链中的话语权显著提升 [8] - 当智算集群规模扩展至万卡乃至十万卡级别,集群设计与建设面临可扩展性、可靠性与能效三大核心挑战 [8] - 为保证可扩展性,必须构建具备高带宽、低延迟的强大互连网络,确保集群规模增长时计算效率不会出现断崖式下降,并实现大规模组网下的有效管理 [8] - 可靠性方面,海量设备数量累加会遵循“木桶效应”,即便单点可靠性极高,整体系统的无故障运行时间也会被指数级拉低 [8] - 最紧迫的是能耗与能效问题,随着单个算力中心体量从MW级向未来GW级演进,传统的供电技术已难以为继,必须实现供电技术的根本性突破,并辅以先进的软件管理调度 [8]
超节点互连技术落地 国产万卡超集群首次真机亮相