腾讯混元开源混合推理MoE模型Hunyuan-A13B - 公司宣布开源首个混合推理MoE模型Hunyuan-A13B,总参数80B,激活参数仅13B,推理速度比肩同等架构领先开源模型且性价比更高 [1] - 模型在Github、Huggingface等平台上线,腾讯云同步开放API支持快速部署 [1] - 该模型为业界首个13B级别MoE开源混合推理模型,在Agent工具调用和长文能力表现突出 [1] 模型性能表现 通用能力测试 - 数学领域:AIME2024测试得分87.3(最高),MATH测试94.3分 [2] - 科学领域:GPOA-Diamond测试71.2分,OlympiadBench测试82.7分 [2] - 推理能力:ввн测试89.1分(最高),DROP测试91.1分,ZebraLogic测试84.7分(最高) [2] - Agent能力:BFCL v3测试78.3分(最高),ComplexFuncBench测试61.2分(最高),C1-Bench测试63.5分(最高) [2] 长文处理能力 - 支持256K原生上下文窗口,PenguinScrolls测试87.7分,LongBench-v2测试55.0分 [3][4] - RULER测试中,64K-128K长文处理得分73.9,优于DeepSeek R1(65.6)和Qwen3-A22B(66.6) [5] 技术创新与功能设计 - 采用多Agent数据合成框架,结合MCP、沙箱和强化学习提升模型效果 [3] - 支持快慢思考模式切换:快思考模式优化简单任务效率,慢思考模式增强复杂任务推理深度 [5][6] 商业化应用与行业贡献 - 腾讯内部超400项业务调用该模型,日均请求量达1.3亿次 [6] - 开源ArtifactsBench(1825个代码评估任务)和C3-Bench(1024条Agent测试数据)填补行业评估标准空白 [7]
腾讯混元开源首款混合推理MoE模型