Workflow
“百模大战”生变 巨头集体转向开源
中国经营报·2025-07-05 04:46

据悉,华为此次开源的盘古 Pro MoE 模型基于分组混合专家模型(Mixture of Grouped Experts, MoGE) 架构构建,总参数量达720亿,激活参数量为160亿,并针对昇腾 300I Duo 和 800I A2 平台进行了系统 优化。 在华为宣布开源部分盘古大模型的同天,百度也宣布在中国正式开源文心大模型4.5系列模型,涵盖47 亿、3亿激活参数的混合专家(MoE)模型与0.3亿参数的稠密型模型等10款模型,实现预训练权重和推 理代码完全开源。 值得注意的是,百度此前一直是闭源路线的坚持者,DeepSeek的爆火出圈促使百度在今年年初的时候 便宣布将在未来几个月中陆续推出文心大模型4.5系列,并于6月30日起正式开源。 中经记者 秦枭 北京报道 大模型行业正在从"参数竞赛"向"生态共建"转变。近日,华为正式宣布开源盘古70亿参数的稠密模型、 盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。百度也宣布同步开源文心大模型 4.5 系列 10 款模型,而在此前,腾讯、智谱、月之暗面等大模型厂商也将自家的大模型开源。 多位业内人士在接受《中国经营报》记者采访时表示,模 ...