腾讯混元开源混合推理MoE模型Hunyuan-A13B - 腾讯混元开源首个混合推理MoE模型Hunyuan-A13B,总参数80B,激活参数仅13B,效果比肩同等架构领先开源模型,但推理速度更快,性价比更高 [1] - 模型已在Github和Huggingface等开源社区上线,同时模型API也在腾讯云官网正式上线,支持快速接入部署 [1] - 这是业界首个13B级别的MoE开源混合推理模型,基于先进架构,表现出强大的通用能力,在多个权威测试集上获得好成绩 [2] 模型性能表现 - 在数学能力测试中,Hunyuan-A13B在AIME2024获得87.3分,高于OpenAl-o1-1217的74.3分和Deepseek-R1-0120的79.8分 [3] - 在推理能力测试中,Hunyuan-A13B在ВВН获得89.1分,在DROP获得91.1分,均表现优异 [3] - 在Agent能力测试中,Hunyuan-A13B在BECL v3获得78.3分,在ComplexFuncBench获得61.2分,显著优于其他模型 [3] 长文处理能力 - Hunyuan-A13B支持256K原生上下文窗口,在多个长文数据集中表现优异 [4] - 在PenguinScrolls测试中获得87.7分,高于Qwen3-A22B的87.1分 [5] - 在RULER测试中,Hunyuan-A13B在0-8K区间获得76.7分,在8K-32K区间获得78.7分,表现优于同类模型 [5] 技术创新与优化 - 模型采用融合推理模式,提供快思考和慢思考两种模式,优化计算资源分配 [5] - 对个人开发者友好,仅需1张中低端GPU卡即可部署,支持多种量化格式,整体吞吐是前沿开源模型的2倍以上 [6] - 预训练环节训练了20T tokens的语料,覆盖多个领域,显著提升模型通用能力 [6] - 后训练采用多阶段训练方式,提升推理能力同时兼顾创作、理解、Agent等通用能力 [6] 开源数据集贡献 - 腾讯混元开源两个新数据集ArtifactsBench和C3-Bench,填补行业评估标准空白 [7] - ArtifactsBench包含1825个任务,涵盖网页开发、数据可视化等九大领域 [7] - C3-Bench针对Agent场景设计1024条测试数据,评估规划、信息处理和决策能力 [7]
腾讯混元推出首款开源混合推理模型:擅长Agent工具调用和长文理解