Workflow
华为盘古团队声明:严格遵循开源要求
观察者网·2025-07-05 17:32

华为盘古Pro MoE大模型争议 - 公司近期发布盘古Pro MoE大模型 采用动态激活专家网络设计 实现以小打大的优异性能 [1] - 开源社区研究指出盘古Pro MoE与阿里巴巴通义千问Qwen-2 5 14B模型参数结构存在"惊人一致" [1] - 公司回应强调盘古Pro MoE是基于昇腾硬件平台开发的基础大模型 并非基于其他厂商模型增量训练 [1][2] - 公司声明该模型是全球首个面向昇腾硬件平台设计的同规格混合专家模型 [1][2] 技术创新与架构设计 - 模型创新性提出分组混合专家模型(MoGE)架构 解决大规模分布式训练的负载均衡难题 [1][2] - 该架构显著提升训练效率 具体技术特性可参考昇腾生态竞争力系列技术报告 [2] - 模型部分基础组件代码实现参考业界开源实践 但严格遵循开源许可证要求 [1][2] 开源社区与知识产权 - 公司在开源代码文件中清晰标注第三方开源代码的版权声明 [1][2] - 强调该做法符合开源社区通行惯例和协作精神 [1][2] - 公司表示始终坚持开放创新 尊重第三方知识产权 [1][2] - 提倡包容 公平 开放 团结和可持续的开源理念 [1][2] 开发者互动与产业合作 - 公司感谢全球开发者关注 重视开源社区建设性意见 [2] - 希望通过开源与合作伙伴共同优化模型能力 加速技术突破与产业落地 [2] - 邀请开发者在Ascend Tribe开源社区进行专业技术交流 [3]