Workflow
腾讯混元开源轻量级翻译模型:支持5种汉语言与方言互译

模型性能与成就 - 腾讯混元团队发布轻量级翻译模型Hunyuan-MT-7B 参数规模为7B(70亿)[1] - 模型在WMT2025竞赛31个语种项目中取得30个第一名[1] - 支持33个语种包括中文、英语、日语及5种民汉语言与方言互译[1] - 在Flores200评测基准上表现显著优于同尺寸模型 效果可比超大规模模型[1] 技术创新与优势 - 基于大模型技术 能更好理解对话背景与上下文[1] - 在处理俚语、古诗词及网络缩写等复杂场景时展现高准确性与流畅性[1] - 采用覆盖预训练到强化学习的全链条训练范式[1] - 通过自研AngelSlim压缩工具进行FP8量化后 推理性能提升30%[2] 开源生态与产品 - 同步开源翻译集成模型Hunyuan-MT-Chimera-7B 可整合评估多模型译文并生成高质量最终版本[2] - 模型已在Huggingface和Github等社区提供下载与技术报告[2] - 轻量化特性支持快速推理与低成本部署 适用于云端服务器到边缘设备[2] 商业应用 - 技术已应用于腾讯会议、企业微信、QQ浏览器等内部业务[2] - 模型在腾讯混元官网开放体验[2] - WMT2025竞赛要求模型必须开源且仅使用公开数据训练[1]