ArtifactsBench

搜索文档
赛道Hyper | 腾讯混元开源Hunyuan-A13B:1张AI卡搞定
华尔街见闻· 2025-07-02 20:15
腾讯混元开源混合推理MoE模型Hunyuan-A13B - 公司开源首个混合推理MoE模型Hunyuan-A13B 总参数800亿 激活参数130亿 在推理效率上有优势 [1] - 对比同等架构开源模型 该模型推理速度提升明显 计算资源消耗较低 [1] - 在Agent工具调用和长文处理方面表现突出 具备差异化竞争力 [1] 模型技术特点 - 采用多Agent数据合成框架 整合MCP协议、沙箱、大语言模型模拟等环境 通过强化学习提升工具调用能力 [2] - 支持256K原生上下文窗口 能处理学术论文、法律条文、商业报告等长文 缓解上下文丢失问题 [3] - 预训练使用20万亿高质量网络词元语料库 覆盖多领域知识 [5] - 构建MoE架构Scaling Law联合公式 为模型设计提供量化指导 [5] - 后训练采用多阶段方式 针对性提升推理、创作等能力 [5] 开发者友好性 - 支持中低端GPU卡部署 如NVIDIA GeForce GTX系列 [4] - 接入主流开源推理框架生态 支持INT4/INT8等量化格式 吞吐能力达前沿模型2倍 [4] - 通过Github、Huggingface等平台开源 腾讯云提供API [4] 配套数据集 - 发布ArtifactsBench数据集 包含1825个任务 覆盖9大领域 评估代码生成能力 [5] - 发布C3-Bench数据集 含1024条测试数据 聚焦Agent场景能力评估 [6] - 数据集填补行业评估标准空白 推动大模型评估体系完善 [6][7] 应用现状与规划 - 已在腾讯内部400多个业务应用 日均请求量1.3亿次 [6] - 未来计划推出0.5B-32B dense模型和13B MoE模型 适配不同需求 [6] - 将持续开源多模态基础模型及插件模型 丰富大模型生态 [6]