Workflow
华为宣布开源盘古7B稠密和72B混合专家模型
财联社·2025-06-30 14:21

华为开源大模型技术 - 公司正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术 [1] - 此举是公司践行昇腾生态战略的关键举措,旨在推动大模型技术研究创新并加速AI在千行百业的应用 [1] 开源内容详情 - 盘古Pro MoE 72B模型权重及基础推理代码已正式上线开源平台 [2] - 基于昇腾的超大规模MoE模型推理代码已同步上线开源平台 [3] - 盘古7B相关模型权重与推理代码将于近期上线开源平台 [4] 生态合作计划 - 公司邀请全球开发者、企业伙伴及研究人员下载使用开源资源并提供反馈以共同完善技术 [4] - 开源资源访问路径为https://gitcode.com/ascend-tribe [4]