Pangu Pro MoE 72B

搜索文档
套壳、续训、洗水印?如何看待疑似某厂员工的自爆?
虎嗅· 2025-07-07 17:55
事件时间线梳理 - 6月30日华为开源盘古-7B稠密模型和Pangu Pro MoE 72B [2] - 7月4日GitHub账号@HonestAGI发布论文指控Pangu Pro MoE与阿里Qwen-2.5 14B高度相似 [2] - 7月5日华为官方声明否认抄袭并质疑论文方法学 [2] - 7月6日自称盘古四纵成员发布长文爆料内部"续训套壳"等问题 [2] - 7月7日科技媒体跟进报道并展开模型权重实测 [2] 技术争议焦点 - 论文采用参数"指纹"法比对认为模型相似度达可疑程度 [2] - 争议缺乏原始训练日志、算力租用凭证等硬核证据 [3] - 爆料涉及系统性模型套壳造假和高层知情默许等严重指控 [24] 公司治理问题 - 信息通道失灵导致基层负面情绪长期积累 [8] - 经理层未能有效处理不公平评价引发的负能量 [6] - 内部投诉机制失效使技术成果被窃取问题未获解决 [11] - 流程管理存在"只许州官放火"的双重标准现象 [42] 行业类似案例 - 基因测序巨头Illumina工程师举报设备缺陷导致FDA强制召回 [13][15] - 硅谷AI芯片公司Lightmatter CTO爆料创始人造假遭法律反制 [14][16][30] - 医疗AI公司Zebra员工举报数据造假被刑事调查 [17][19][20][21] 爆料内容分析 - 包含大量内部技术细节如模型迭代路径、训练问题等核心信息 [27] - 指控内容涉及管理流程失效、人才流失等系统性问题 [32] - 主观推测成分较多可能引发法律风险如诽谤或商业秘密诉讼 [25] 职场管理启示 - 负能量积累会导致核心人才流失和团队士气崩溃 [32][33] - 汇报能力不足可能导致技术成果被其他团队侵占 [34] - 存在特权通道现象破坏管理公平性 [42] - 流程繁复与研发效率需要平衡 [37][38] 个人风险警示 - 实名举报可能面临民事诉讼索赔和刑事风险 [25] - 匿名性在大数据排查面前非常脆弱 [28] - 建议立即停止信息扩散并清理可追溯痕迹 [29] - 保存证据需在律师指导下隐秘进行 [36]
华为盘古团队:否认抄袭!
程序员的那些事· 2025-07-06 20:33
华为盘古大模型开源事件 - 华为于6月30日宣布开源盘古大模型(Pangu Pro MoE 72B)和基于昇腾的模型推理技术,旨在推动大模型技术研究与创新发展,加速AI在千行百业的应用[1] - 盘古大模型被指与阿里巴巴通义千问Qwen-2.5 14B模型参数结构"惊人一致",引发技术原创性与开源合规性讨论[1] 技术相似性质疑 - 7月4日GitHub研究指出,盘古Pro MoE模型与阿里通义千问Qwen-2.5 14B模型的注意力参数分布存在高度相似性,平均相关性达0.927[2] - 研究在盘古开源代码文件中发现标注"Copyright 2024 The Qwen team, Alibaba Group",质疑复制阿里代码时未删除版权声明[2] 华为技术团队回应 - 盘古团队否认抄袭指控,认为评估方法不科学[3] - 强调技术原创性:盘古Pro MoE是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新提出分组混合专家模型(MoGE)架构[3] - 说明开源合规性:承认部分基础组件参考了业界开源实践,但严格遵循开源许可证要求,清晰标注版权声明[3] - 重申开源理念:华为坚持开放创新,尊重第三方知识产权,提倡包容、公平、开放的开源理念[3]
MoE推理「王炸」组合:昇腾×盘古让推理性能狂飙6-8倍
机器之心· 2025-06-06 17:36
混合专家模型技术突破 - 华为推出昇腾平台原生设计的Pangu Pro MoE 72B模型,显著降低计算开销并在SuperCLUE千亿内模型评测中并列国内第一 [2] - 通过软硬协同优化实现推理性能提升6~8倍,昇腾300I Duo单卡吞吐达321 tokens/s,昇腾800I A2单卡吞吐飙升至1528 tokens/s [3] - 采用分层混合并行(HP)策略,Decode吞吐性能相比纯TP方案提升33.1%,通过模块化分工优化通信效率 [5][6][7] 通信与计算协同优化 - 提出TopoComm优化方案,同步次数降低35%,链路有效带宽提高21%,通信数据压缩25%,AllGather通信耗时降低39% [9] - 开发DuoStream多流融合方案,实现计算与通信细粒度并发调度,解决Expert模块通信瓶颈 [12] - 构建GMMRS与AGMM融合策略,关键通信路径流水掩盖,显著提升硬件资源利用率 [12] 高性能算子创新 - 开发MulAttention融合算子,Attention计算加速4.5倍,数据搬运流水占用率89%,访存带宽利用率87% [16] - 推出SwiftGMM矩阵计算引擎,GMM计算加速2.1倍,解码阶段整网推理时延降低48.7% [18] - 算子优化实现KV缓存搬运效率提升,路由专家权重搬运瓶颈突破 [15][16][18] 推理算法创新 - 专家动态剪枝算法PreMoE保持模型准确率同时提升推理吞吐10%+ [21] - TrimR反思压缩算法通过小模型监测大模型思考过程,推理步数降低14% [22] - SpecReason反思投机算法结合大小模型优势,推理吞吐提升30% [22] 昇腾平台性能表现 - 昇腾800I A2平台4卡部署下,大并发场景单卡吞吐1148 tokens/s,较72B/32B稠密模型提升97%/18%,MTP技术下最高吞吐达1528 tokens/s [24] - 昇腾300I Duo平台4卡部署实现小并发延迟50ms,大并发单卡吞吐201 tokens/s,MTP技术下吞吐最高321 tokens/s,提供高性价比解决方案 [26] - 预填充阶段2卡2路并发实现2k序列输入延迟1.94s,单卡吞吐1055 tokens/s [26]
生于昇腾,快人一步:盘古Pro MoE全链路优化推理系统揭秘
雷峰网· 2025-06-06 17:26
华为昇腾平台与Pangu Pro MoE模型优化 核心观点 - 华为推出昇腾平台原生设计的Pangu Pro MoE 72B模型,通过软硬协同优化实现推理性能提升6~8倍,在昇腾300I Duo和800I A2上分别达到321 tokens/s和1528 tokens/s的吞吐量 [2] - 采用分层混合并行(H2P)、通信优化(TopoComm)、计算通信融合(DuoStream)等创新技术,显著提升分布式推理效率 [4][6][8] - 开发MulAttention和SwiftGMM两大融合算子,分别实现Attention计算加速4.5倍和GMM计算加速2.1倍,解码时延降低48.7% [15][18] 技术优化细节 系统级优化 - **H2P分层混合并行**:针对Attention模块采用DP2+TP4并行,Expert模块采用TP2+EP4策略,共享专家TP8全芯并行,Decode吞吐性能比纯TP方案提升33.1% [4][5] - **TopoComm通信优化**:SlimRing算法降低同步次数35%,NHD算法提高链路有效带宽21%,混合量化通信策略压缩数据25%,AllGather耗时降低39% [6] - **DuoStream多流融合**:通过GMMRS和AGMM策略实现通信与计算流水掩盖,最大化释放硬件潜力 [10] 算子级优化 - **MulAttention算子**:优化KV缓存搬运,访存带宽利用率达87%,数据搬运流水占用率89%,Attention计算加速4.5倍 [15] - **SwiftGMM算子**:动态切换GEMV/GEMM模式,结合智能分块缓存和双缓存机制,解码阶段整网时延降低48.7% [18] 推理算法创新 - **PreMoE动态剪枝**:通过PEP和TAER技术动态加载相关专家,保持准确率同时推理吞吐提升10%+ [22] - **TrimR反思压缩**:用小模型监测大模型思考过程,异常时终止推理,步数降低14% [23] - **SpecReason投机推理**:小模型生成假设后大模型验证,推理吞吐提升30% [23] 性能表现 昇腾800I A2 - 4卡部署下,大并发场景(BS=456)单卡吞吐1148 tokens/s,较72B/32B稠密模型提升97%/18% [26] - 结合MTP投机推理,单卡BS提升至146,平均时延95.56ms,最高吞吐1528 tokens/s [26][28] 昇腾300I Duo - 预填充阶段2卡2路并发下2k序列输入延迟1.94s,单卡吞吐1055 tokens/s [29] - 解码阶段小并发延迟50ms,大并发(BS=80)单卡吞吐201 tokens/s,MTP优化后最高达321 tokens/s [29][31]