腾讯,大动作!
腾讯混元开源混合推理模型 - 腾讯混元开源首款混合推理MoE模型Hunyuan-A13B,总参数80B,激活参数13B,效果比肩同等架构领先开源模型且推理速度更快[3][4] - 该模型为业界首个13B级别开源MoE混合推理模型,在Agent工具调用和长文理解表现突出,支持快/慢思考双模式[4][5] - 模型对开发者友好,仅需1张中低端GPU卡即可部署,吞吐量达前沿开源模型的2倍以上[5] - 已融入主流推理框架生态,支持多种量化格式,日均请求超1.3亿次,400+业务调用[5] - 此次开源是继混元Large后的重要升级,参数更小但性能大幅提升,未来将推出0.5B-32B多尺寸模型[6][10] 行业开源趋势 - 2024年大模型开源成行业"必选项",全球科技巨头3月以来密集发布超10款开源模型[8] - 国内字节跳动、阿里、百度等企业加速开源,如阿里推出自主搜索AI Agent WebAgent,字节开源多模态模型BAGEL(70亿活跃参数)[9] - 开源模型通过提供预训练代码降低企业开发成本,超50%全球企业已采用开源AI技术[9][10] - 开源模型性能持续突破,Hugging Face榜单频繁刷新,企业转向"轻量化集成"开发模式[8][10] 技术细节与生态 - Hunyuan-A13B集合腾讯预训练/后训练创新技术,支持Github/Huggingface下载及腾讯云API接入[4][5] - 模型在权威测试集表现优异,多模态基础模型及插件模型将陆续开源[4][10] - 行业开源案例包括WebAgent的端到端检索能力、BAGEL的多模态理解性能(优于Qwen2.5-VL等)[9]