腾讯,重磅开源!
业界首个13B级别的MoE(混合专家)开源混合推理模型,以小参数实现大智慧。 6月27日,腾讯混元宣布开源首个混合推理MoE模型Hunyuan-A13B。这一模型总参数为80B,但激活参数仅为13B,以小参数实现了比肩同等架构领先开源模型 的成绩,具有推理速度更快,性价比更高的优势。目前,该模型已经在Github和Huggingface等开源社区上线,同时模型API也在腾讯云官网正式上线,支持快速 接入部署。 开源业界首个13B级别的MoE混合推理模型 据腾讯介绍,Hunyuan-A13B是腾讯内部应用和调用量最大的大语言模型之一,有超过400个业务用于精调或者直接调用,日均请求超1.3亿。同时,这也是业界首 个13B级别的MoE开源混合推理模型,可以帮助开发者以用更低门槛的方式获得更好的模型能力。 在多个业内权威数据测试集上,Hunyuan-A13B与OpenAI的o1-1217、DeepSeek的R1-0120、Qwen3-A22B等模型的对比中表现出了不相上下的成绩。 | | | OpenAl-o1-1217 | Deepseek-R1-0120 | Qwen3-A22B | Hunyuan-A13B ...