Workflow
腾讯混元开源首个13B激活MoE大模型:推理提升超2倍,单卡可跑!

【编者按】首个13B激活参数的MoE大模型 Hunyuan-A13B重磅来袭:总参数80B、256K原生长上下文、推理速度是同类模型2倍以上,单卡可跑、效果拉 满,日均调用超1.3亿次! 出品丨AI 科技大本营(ID:rgznai100) 6月27日,腾讯混元宣布开源首个混合推理MoE模型 Hunyuan-A13B,总参数80B,激活参数仅13B,效果比肩同等架构领先开源模型,但是推理速度 更快,性价比更高。这意味着,开发者可以用更低门槛的方式获得更好的模型能力。 即日起,模型已经在 Github 和 Huggingface 等开源社区上线,同时模型API也在腾讯云官网正式上线,支持快速接入部署。 项目相关链接 AI产品爆发,但你的痛点解决了吗?8.15-16 北京威斯汀·全球产品经理大会,3000+AI产品人社群已就位。 添加小助手进群,抢占AI产品下一波红利 进群后,您将有机会得到: 这是业界首个13B级别的MoE开源混合推理模型,基于先进的模型架构,Hunyuan-A13B表现出强大的通用能力,在多个业内权威数据测试集上获得 好成绩,并且在Agent工具调用和长文能力上有突出表现。 体验入口:https ...