Workflow
昇腾300I Duo
icon
搜索文档
大模型推理,得讲性价比
虎嗅APP· 2025-06-06 18:10
华为MoE架构技术突破 - 华为推出昇腾平台原生设计的Pangu Pro MoE 72B模型,大幅降低计算开销,在SuperCLUE千亿内模型并列国内第一[3] - 通过系统级软硬协同优化、高性能算子融合优化、模型原生投机算法优化,Pangu Pro MoE推理性能提升6~8倍[3] - 在昇腾300I Duo上单卡吞吐可达321 tokens/s,在昇腾800I A2上更可飙升至1528 tokens/s[3] 分层混合并行(H2P)优化 - 提出创新性的H2P分层混合并行策略,根据任务特性"分工开小会",让每个部分在各自的通信域内高效执行[6] - Attention模块采用DP2+TP4并行方案,Expert模块采用TP2+EP4策略,共享专家以TP8全芯并行[6] - 相比纯TP方案,Decode吞吐性能提升33.1%[7] 通信瓶颈优化(TopoComm) - 提出SlimRing算法合并相邻通信步的后同步与前同步操作,同步次数降低35%[10] - 提出NHD算法通过拓扑亲和的分级通信等效提高链路有效带宽21%[10] - 引入INT8 AllGather + FP16 Reduce-Scatter混合量化通信策略,实现通信数据压缩25%,AllGather通信耗时降低39%[10] 计算&通信融合(DuoStream) - 提出DuoStream算子级多流融合通算优化方案,实现计算与通信的细粒度并发调度[11] - 构建GMMRS与AGMM两大融合策略,克服通信与数据搬运和计算之间的瓶颈[11] - 显著提升模型在昇腾平台上的推理效率,最大化释放硬件资源潜能[11] 融合算子优化 - 打造MulAttention和SwiftGMM两支精锐融合算子特种部队[16] - MulAttention实现Attention计算加速4.5倍,达成89%以上的数据搬运流水占用率[17] - SwiftGMM实现GMM计算加速2.1倍,解码阶段整网推理时延降低48.7%[20] 推理算法加速 - 提出专家动态剪枝算法PreMoE,实现推理吞吐提升10%+[25] - 提出TrimR反思压缩算法,推理步数降低14%[27] - 提出SpecReason反思投机算法,推理吞吐提升30%[27] 昇腾平台性能表现 - 昇腾800I A2平台在BS=456时单卡吞吐达1148 tokens/s,较72B和32B稠密模型分别提升97%和18%[30] - 结合MTP投机推理技术,单卡BS可提升至146,最高吞吐突破1528 tokens/s[30] - 昇腾300I Duo平台在BS=128时单卡吞吐最高达321 tokens/s,提供更具性价比的MoE推理解决方案[32]
MoE推理「王炸」组合:昇腾×盘古让推理性能狂飙6-8倍
机器之心· 2025-06-06 17:36
混合专家模型技术突破 - 华为推出昇腾平台原生设计的Pangu Pro MoE 72B模型,显著降低计算开销并在SuperCLUE千亿内模型评测中并列国内第一 [2] - 通过软硬协同优化实现推理性能提升6~8倍,昇腾300I Duo单卡吞吐达321 tokens/s,昇腾800I A2单卡吞吐飙升至1528 tokens/s [3] - 采用分层混合并行(HP)策略,Decode吞吐性能相比纯TP方案提升33.1%,通过模块化分工优化通信效率 [5][6][7] 通信与计算协同优化 - 提出TopoComm优化方案,同步次数降低35%,链路有效带宽提高21%,通信数据压缩25%,AllGather通信耗时降低39% [9] - 开发DuoStream多流融合方案,实现计算与通信细粒度并发调度,解决Expert模块通信瓶颈 [12] - 构建GMMRS与AGMM融合策略,关键通信路径流水掩盖,显著提升硬件资源利用率 [12] 高性能算子创新 - 开发MulAttention融合算子,Attention计算加速4.5倍,数据搬运流水占用率89%,访存带宽利用率87% [16] - 推出SwiftGMM矩阵计算引擎,GMM计算加速2.1倍,解码阶段整网推理时延降低48.7% [18] - 算子优化实现KV缓存搬运效率提升,路由专家权重搬运瓶颈突破 [15][16][18] 推理算法创新 - 专家动态剪枝算法PreMoE保持模型准确率同时提升推理吞吐10%+ [21] - TrimR反思压缩算法通过小模型监测大模型思考过程,推理步数降低14% [22] - SpecReason反思投机算法结合大小模型优势,推理吞吐提升30% [22] 昇腾平台性能表现 - 昇腾800I A2平台4卡部署下,大并发场景单卡吞吐1148 tokens/s,较72B/32B稠密模型提升97%/18%,MTP技术下最高吞吐达1528 tokens/s [24] - 昇腾300I Duo平台4卡部署实现小并发延迟50ms,大并发单卡吞吐201 tokens/s,MTP技术下吞吐最高321 tokens/s,提供高性价比解决方案 [26] - 预填充阶段2卡2路并发实现2k序列输入延迟1.94s,单卡吞吐1055 tokens/s [26]
生于昇腾,快人一步:盘古Pro MoE全链路优化推理系统揭秘
雷峰网· 2025-06-06 17:26
华为昇腾平台与Pangu Pro MoE模型优化 核心观点 - 华为推出昇腾平台原生设计的Pangu Pro MoE 72B模型,通过软硬协同优化实现推理性能提升6~8倍,在昇腾300I Duo和800I A2上分别达到321 tokens/s和1528 tokens/s的吞吐量 [2] - 采用分层混合并行(H2P)、通信优化(TopoComm)、计算通信融合(DuoStream)等创新技术,显著提升分布式推理效率 [4][6][8] - 开发MulAttention和SwiftGMM两大融合算子,分别实现Attention计算加速4.5倍和GMM计算加速2.1倍,解码时延降低48.7% [15][18] 技术优化细节 系统级优化 - **H2P分层混合并行**:针对Attention模块采用DP2+TP4并行,Expert模块采用TP2+EP4策略,共享专家TP8全芯并行,Decode吞吐性能比纯TP方案提升33.1% [4][5] - **TopoComm通信优化**:SlimRing算法降低同步次数35%,NHD算法提高链路有效带宽21%,混合量化通信策略压缩数据25%,AllGather耗时降低39% [6] - **DuoStream多流融合**:通过GMMRS和AGMM策略实现通信与计算流水掩盖,最大化释放硬件潜力 [10] 算子级优化 - **MulAttention算子**:优化KV缓存搬运,访存带宽利用率达87%,数据搬运流水占用率89%,Attention计算加速4.5倍 [15] - **SwiftGMM算子**:动态切换GEMV/GEMM模式,结合智能分块缓存和双缓存机制,解码阶段整网时延降低48.7% [18] 推理算法创新 - **PreMoE动态剪枝**:通过PEP和TAER技术动态加载相关专家,保持准确率同时推理吞吐提升10%+ [22] - **TrimR反思压缩**:用小模型监测大模型思考过程,异常时终止推理,步数降低14% [23] - **SpecReason投机推理**:小模型生成假设后大模型验证,推理吞吐提升30% [23] 性能表现 昇腾800I A2 - 4卡部署下,大并发场景(BS=456)单卡吞吐1148 tokens/s,较72B/32B稠密模型提升97%/18% [26] - 结合MTP投机推理,单卡BS提升至146,平均时延95.56ms,最高吞吐1528 tokens/s [26][28] 昇腾300I Duo - 预填充阶段2卡2路并发下2k序列输入延迟1.94s,单卡吞吐1055 tokens/s [29] - 解码阶段小并发延迟50ms,大并发(BS=80)单卡吞吐201 tokens/s,MTP优化后最高达321 tokens/s [29][31]
首次打榜就登顶,华为盘古如何以小胜大?
虎嗅APP· 2025-05-28 21:34
华为MoGE架构技术突破 - 华为盘古团队提出分组混合专家模型(MoGE),基于该架构构建的盘古Pro MoE大模型总参数72B,激活参数16B,在昇腾300I Duo和800I A2平台实现321 tokens/s和1528 tokens/s的计算效率 [2] - MoGE架构克服传统MoE负载不均衡及效率瓶颈,通过分组均衡路由技术确保跨设备负载均衡,结合仿真优化算法实现昇腾硬件亲和性设计 [6][12] - 盘古Pro MoE在SuperCLUE榜单以59分位列千亿参数量以内大模型国内第一,16B激活参数量媲美更大规模模型 [2][4] 技术原理与工程实现 - 分组均衡路由将专家均匀划分为M组,每组独立Top-K路由,全局激活数=组数×每组激活数,实现组间负载差异为0并避免通信瓶颈 [12] - 采用Batch级辅助均衡损失函数控制专家权重分布,结合分层策略与算子级仿真器优化昇腾平台上的精度与推理效率 [13][14] - 深度融合昇腾硬件加速架构并行计算特性,通过混合并行、通信优化、量化压缩及高性能算子(如MulAttention/SwiftGMM)实现推理加速 [16] 性能与行业影响 - 昇腾300I Duo单卡吞吐达201 tokens/s(MTP解码优化后321 tokens/s),昇腾800I A2单卡吞吐1148 tokens/s(优化后1528 tokens/s),显著领先同规模稠密模型 [16] - 在MMLU(EM 89.3)、C-Eval(EM 91.1)、LiveCodeBench(Pass@1 62.6)等跨语言多领域测试中超越同规模开源模型(Qwen3-32B/GLM4-Z1-32B) [18][19] - 专家负载分布接近理论理想值(各专家处理token占比约12.5%),相比DeepSeek-V2(最高30%)实现硬件效率革命 [20] 行业范式转变 - 从参数军备竞赛转向实效主义,动态负载均衡技术降低云端推理成本,轻量化推理引擎适配昇腾芯片赋能百亿级模型部署 [23] - 标志大模型进入工业化部署新阶段,为高并发实时场景提供支持,重新定义AI产业应用的"高效普惠"智能底座 [23]