华为宣布开源盘古7B稠密和72B混合专家模型
雷峰网·2025-06-30 12:32
开源模型发布 - 公司正式开源盘古Pro MoE 720亿参数混合专家模型权重及基础推理代码[1][2][3] - 同时开源基于昇腾的超大规模MoE模型推理代码[4] - 盘古7B相关模型权重与推理代码将于近期上线开源平台[5] 技术性能突破 - 公司通过昇腾+鲲鹏双核架构实现MoE训练速度提升20% 内存节省70%[7] - 昇腾原生72B MoE架构在SuperCLUE评测中位列国内千亿参数内模型第一梯队[7] 生态战略布局 - 此次开源是公司推进昇腾生态战略的关键举措[2] - 公司邀请全球开发者 企业伙伴及研究人员共同参与模型完善[5] - 开源平台地址为https://gitcode.com/ascend-tribe[5]