Workflow
腾讯混元开源首个13B激活MoE大模型:推理提升超2倍,单卡可跑!

模型发布与性能 - 腾讯混元开源首个混合推理MoE模型Hunyuan-A13B,总参数80B,激活参数仅13B,推理速度是同类模型的2倍以上,日均调用超1.3亿次 [1] - 模型在Github、Huggingface等开源社区上线,API支持快速接入部署 [2][5] - 模型单卡可跑,仅需1张中低端GPU卡即可部署,支持多种量化格式,整体吞吐是前沿开源模型的2倍以上 [11] 技术架构与训练 - 模型基于MoE架构,训练了20T tokens的语料,覆盖多个领域,显著提升通用能力 [12] - 团队构建了适用于MoE架构的Scaling Law联合公式,完善了MoE架构的理论体系 [12] - 采用多阶段后训练方式,提升推理能力同时兼顾创作、理解、Agent等通用能力 [13] 性能表现 - 在数学领域表现突出,AIME2024得分87.3,超过同类模型 [7] - 在推理任务中,BBH得分89.1,DROP得分91.1,均位列前茅 [7] - Agent能力表现优异,BECL v3得分78.3,ComplexFuncBench得分61.2,均为最高分 [7] 长文处理能力 - 支持256K原生上下文窗口,在PenguinScrolls得分87.7,LongBench-v2得分55.0 [9][10] - 在RULER测试中,64K-128K长文处理得分73.9,优于同类模型 [10] 应用与生态 - 模型已应用于腾讯内部400+业务,日均请求超1.3亿次 [14] - 开源两个新数据集:ArtifactsBench包含1825个任务,C3-Bench包含1024条测试数据 [14] - 未来计划推出多尺寸混合推理模型,从0.5B到32B的dense模型及13B的MoE模型 [15]