基于昇腾的模型推理技术

搜索文档
华为宣布开源盘古7B稠密和72B混合专家模型
财联社· 2025-06-30 14:21
华为开源大模型技术 - 公司正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术 [1] - 此举是公司践行昇腾生态战略的关键举措,旨在推动大模型技术研究创新并加速AI在千行百业的应用 [1] 开源内容详情 - 盘古Pro MoE 72B模型权重及基础推理代码已正式上线开源平台 [2] - 基于昇腾的超大规模MoE模型推理代码已同步上线开源平台 [3] - 盘古7B相关模型权重与推理代码将于近期上线开源平台 [4] 生态合作计划 - 公司邀请全球开发者、企业伙伴及研究人员下载使用开源资源并提供反馈以共同完善技术 [4] - 开源资源访问路径为https://gitcode.com/ascend-tribe [4]
华为宣布开源盘古7B稠密和72B混合专家模型
雷峰网· 2025-06-30 12:32
开源模型发布 - 公司正式开源盘古Pro MoE 720亿参数混合专家模型权重及基础推理代码[1][2][3] - 同时开源基于昇腾的超大规模MoE模型推理代码[4] - 盘古7B相关模型权重与推理代码将于近期上线开源平台[5] 技术性能突破 - 公司通过昇腾+鲲鹏双核架构实现MoE训练速度提升20% 内存节省70%[7] - 昇腾原生72B MoE架构在SuperCLUE评测中位列国内千亿参数内模型第一梯队[7] 生态战略布局 - 此次开源是公司推进昇腾生态战略的关键举措[2] - 公司邀请全球开发者 企业伙伴及研究人员共同参与模型完善[5] - 开源平台地址为https://gitcode.com/ascend-tribe[5]