Workflow
AI算力集群迈进“万卡”时代 超节点为什么火了?
第一财经·2025-07-30 18:24

超节点技术成为AI算力集群核心解决方案 - 超节点技术通过整合算力芯片资源构建低延迟高带宽算力实体 显著提升算力利用效率 支撑千亿至万亿参数模型训练[1] - 技术能避免芯片空闲 在单颗芯片制程受限时仍可提升集群性能 国内厂商已将其作为明显发展趋势[1][4] - 华为展出昇腾384超节点实现384个NPU大带宽低时延互连 上海仪电联合曦智科技等发布光跃LightSphere X超节点 新华三推出H3C UniPoD S80000超节点[1] 超节点技术兴起的驱动因素 - 大模型参数量迈向万亿级 算力集群从千卡扩展到万卡/十万卡规模 需解决大规模芯片协同问题[2] - 传统AI服务器横向拓展存在算力性能损失 超节点能保证单个节点内性能最优 解决"1+1<2"的算力损耗问题[3] - 光互连技术成为主流方向 光互连光交换可实现纳秒级切换 提供高带宽低延迟通信 曦智科技光交换芯片与壁仞科技GPU液冷模组已投入应用[4] 超节点技术的实施路径与优势 - 采用scale out横向拓展与scale up纵向拓展双路线 纵向拓展可在单节点内集成多GPU(如64卡/节点)实现一致通讯带宽[3] - 万卡集群需具备多重容错能力 包括秒级容错和分钟级故障恢复 同时需要调度能力实现并行计算分布[2] - 国内通过超节点方案以量补质 弥补国产AI芯片制程差距 光芯片可不依赖高制程[5] 国产AI芯片的差异化竞争策略 - 外购芯片市场份额从去年63%降至今年预计49% 国产芯片占比提升[6] - 墨芯人工智能聚焦AI推理场景 采用稀疏计算技术 12nm制程即可满足需求 针对边缘计算优化功耗[6][7] - 云天励飞聚焦边缘计算与云端大模型推理 后摩智能定位端边场景 存算一体技术实现160TOPS算力 避开与巨头直接竞争[8] 技术路线与生态建设现状 - 英伟达采用封闭生态 国内厂商推进开放技术体系 各厂商超节点路线存在差异 光通信技术全球领先无明显代差[5] - 新华三超节点基于以太协议和PCIe协议 适用多种算力芯片 华为通过总线技术实现NPU互连[4] - 万亿参数模型训练需超1万张GPU 每个超节点包含几十张GPU 需配置冗余容错机制[2]