Workflow
事关大模型,盘古团队声明
新华网财经·2025-07-06 14:43

华为盘古开源模型与通义千问的相似性争议 - 华为宣布开源盘古70亿参数的稠密模型和盘古Pro MoE 720亿参数的混合专家模型,引发业界对盘古Pro MoE与通义千问Qwen-2 5 14B模型参数结构高度相似的热议 [1] - GitHub研究显示盘古Pro MoE与通义千问Qwen-2 5 14B在注意力参数分布上平均相关性高达0 927,远超正常范围 [1] - 诺亚方舟实验室声明盘古Pro MoE是基于昇腾硬件平台开发的基础大模型,并非基于其他厂商模型增量训练而来 [1] 模型架构与技术创新 - 业内分析认为盘古Pro MoE未直接使用通义千问的预训练权重,两者偏置数值分布存在本质差异 [2] - 盘古Pro MoE与通义千问可能在架构设计上高度一致,但大模型架构趋同是行业普遍现象 [2] - 盘古Pro MoE创新提出分组混合专家模型(MoGE)架构,解决大规模分布式训练的负载均衡难题,提升训练效率 [2] 开源实践与社区回应 - 诺亚方舟实验室承认部分基础组件代码参考业界开源实践,但严格遵循开源许可证要求并标注版权声明 [1] - 公司强调坚持开放创新,尊重第三方知识产权,倡导包容、公平、可持续的开源理念 [2] - 盘古团队感谢开发者关注,希望通过开源加速技术突破与产业落地 [3]