Hy3 Preview 模型发布与定位 - 腾讯混元团队发布新一代大模型Hy3 preview,这是团队在架构与基础设施重构后的首个版本,模型尺寸较小,定位于实用性[1][2] - 该模型是姚顺雨归国加盟腾讯后的首个重要成果,遵循其“AI下半场”理念,强调在真实业务场景中打磨,关注实际效果与实用性[2] - 新一代模型在聊天、代码、智能体、数理推理、指令遵循、上下文理解等方面的能力得到增强[3] 模型部署与生态接入 - Hy3 preview已在腾讯云、元宝、ima、CodeBuddy、WorkBuddy、QQ、QQ浏览器、腾讯文档、腾讯乐享等产品首发上线,微信公众号、和平精英、腾讯新闻等主线产品也在陆续上线[6] - 模型支持接入OpenClaw、OpenCode、KiloCode等流行的开源智能体产品,并已上架腾讯云大模型服务平台TokenHub[7] 智能体(Agent)与代码能力测评 - 模型在智能体能力方面有提升,顺应了Agent下半场的技术趋势,在腾讯AI办公助手WorkBuddy上可进行代码开发、深度研究等任务[11] - 在测试中,模型能自主完成多步搜索与长链推理,例如系统性地调研DeepSeek融资传闻,对比至少5个权威信源并梳理矛盾点[13] - 模型能完成复合型任务,如联网获取联合国人口数据,进行“全球人口结构变迁”的可视化分析,输出图表与分析文本[14][15] - 在代码生成测试中,模型生成的“开心消消乐”网页游戏画面精美、逻辑完整且可正常运行,完成质量超出预期[16] 对话、推理与内容创作能力 - 模型提供“快速思考”与“深度思考”两种模式,深度思考模式可提供更优质的回答[18] - 在对话中,模型能理解上下文,根据用户情绪调整回应语气和深度,并提供有针对性的建议[19] - 模型展现出较强的常识推理与共情能力,能识别并处理如“父母结婚时未叫我”这类逻辑陷阱问题[21] - 在创意写作方面,模型能分析图片氛围并生成不同风格的朋友圈文案,也能模仿欧·亨利笔调创作短篇小说[25][26] - 在搜索能力方面,模型能迅速援引权威信源,对如“Meta强制收集鼠标键盘输入的原因”等问题给出清晰、有据可查的回答[27][28] 技术架构与研发理念 - Hy3 preview是一个快慢思考融合的MoE(混合专家)语言模型,总参数量为2950亿,激活参数量为210亿,支持256K上下文长度[30] - 混元团队在新模型上进行了底层重构,重点是预训练和强化学习基建的重做,选择了成熟的MoE路线,将资源集中于工程基座的稳固性[30] - 此次重构旨在提升模型的稳定性、数据吞吐效率以及强化学习管线的良品率,以达到工业级水准[31] - 研发过程强调“评估大于训练”,加强了对自建Benchmark的研究,这与姚顺雨提出的AI下半场思路一致[31] - 姚顺雨认为,大模型“下半场”的逻辑在于思考“应该训练AI做什么”,由于现有配方强大,微调可能仅带来5%的提升,因此评估变得比训练更重要[33] - 公司认为,其拥有微信、游戏、广告、云服务等复杂业务场景,自建评测环境能高度贴合真实业务痛点,有助于构建解决实际问题的生产力工具[33] - Hy3 preview于2026年1月底启动训练,从训练到上线仅用了不到三个月,标志着混元大模型从理论走向解决真实世界问题的开端[33] 行业背景与未来展望 - 近期全球AI团队动作频繁,包括千问的Qwen 3.6 Max Preview、月之暗面的Kimi 2.6以及小米的MiMo-V2.5-Pro相继上线[8] - 未来,混元团队希望通过开发者与用户协作的方式,在真实场景和任务中持续提升模型能力[34]
刚刚,姚顺雨带队「重建」混元,首个大模型上线了