Workflow
InfiniteHBD
icon
搜索文档
全新GPU高速互联设计,为大模型训练降本增效!北大/阶跃/曦智提出新一代高带宽域架构
量子位· 2025-05-19 12:37
大模型分布式训练技术 - 随着大模型参数规模扩大,分布式训练成为AI发展的中心技术路径[1] - 高带宽域(HBD)设计对提升大模型训练效率至关重要[2] - 张量并行和专家并行需依赖HBD提供Tbps级带宽支持[6] 现有HBD架构的局限性 - 以交换机为中心的HBD(如NVIDIA NVL-72)成本高昂且不易扩展[3][8] - 以GPU为中心的HBD(如Google TPUv3)存在严重的故障传播问题[3][12] - 交换机-GPU混合HBD(如TPUv4)在成本和容错方面仍不理想[3][18] InfiniteHBD创新架构 - 采用以光交换模组为中心的HBD架构,单位成本仅为NVL-72的31%[4] - 通过OCS技术实现节点级故障隔离,GPU浪费率接近零[4][59] - 与NVIDIA DGX相比,MFU最高提升3.37倍[4][63] 关键技术突破 - 基于硅光子技术的OCS光电转换模组(OCSTrx),支持800Gbps带宽[30][31] - 可重配置的K-Hop Ring拓扑,支持动态构建任意大小的GPU粒度环[36][39] - HBD-DCN编排算法将跨ToR流量降低5.8倍[69] 性能优势 - 互连成本仅为NVL-72的31%、TPUv4的63%[74] - 能耗为NVL-72的75%,与TPUv4持平[74] - 在Llama3.1和GPT-MoE 1.1T训练中表现优异[62][64] 行业合作 - 阶跃星辰作为通用大模型创业公司参与研发[77] - 曦智科技作为光电混合算力提供商支持技术创新[77] - 上海智能算力科技正在筹备相关集群建设[77]