Workflow
刚刚,华为发布!
中国基金报·2025-06-30 12:05

华为开源盘古大模型 - 华为首次开源盘古大模型核心能力,包括70亿参数稠密模型和720亿参数混合专家模型[2][3] - 开源内容包括盘古Pro MoE 72B模型权重、基础推理代码以及基于昇腾的超大规模MoE模型推理代码[4] - 盘古7B相关模型权重与推理代码将于近期上线开源平台[4] - 盘古Pro MoE是昇腾原生分组混合专家模型,总参数量720亿,激活参数量160亿[4] - 盘古Pro MoE在昇腾800I A2上实现单卡1148 tokens/s推理吞吐性能,可提升至1528 tokens/s[5] - 盘古7B是灵活切换快慢思考的高效模型,实现快速响应和高质量推理的灵活切换[6] - 盘古Embedded 7B在多个复杂推理基准测试中表现优于Qwen3-8B和GLM4-9B等规模相近的领先模型[7] 盘古大模型技术优势 - 昇腾NPU支持盘古Pro MoE大规模并行训练,在千亿内总参数模型中处于领先地位[6] - 华为构建了支持超大规模集群和MoE模型的昇腾全流程高效训练系统[6] - 华为推出参数规模高达7180亿的盘古Ultra MoE模型,是全流程在昇腾AI计算平台训练的准万亿MoE模型[6] - 盘古Pro MoE在昇腾300I Duo推理服务器上实现极具性价比的模型推理方案[5] 国内大模型开源趋势 - 大模型开源加速技术创新、降低研发成本、促进知识共享[9] - 2025年国产大模型开源消息接连不断,涵盖自然语言处理、计算机视觉、多模态等多个领域[9] - 华为云发布盘古大模型5.5,在复杂推理能力、工具调用等评测中得分处于业界第一梯队[9] - 国内头部大模型厂商以算法升级促进模型性能提升,大模型价格比DeepSeek-R1降低约60%-80%[10]