【腾讯开源混元-A13B模型】6月27日讯,6月27日,腾讯发布并开源混元-A13B模型。据介绍,作为基于专家混合(MoE)架构的大模型,总参数800亿、激活参数130亿,在效果比肩顶尖开源模型的同时,大幅降低推理延迟与计算开销;极端条件下仅需1张中低端GPU卡即可部署。
腾讯开源混元-A13B模型 - 公司发布并开源混元-A13B模型,基于专家混合(MoE)架构 [1] - 模型总参数800亿,激活参数130亿,效果比肩顶尖开源模型 [1] - 模型大幅降低推理延迟与计算开销,极端条件下仅需1张中低端GPU卡即可部署 [1]