姚顺雨的最新成果,才是腾讯发完 10 亿红包后决战 AI 的关键
腾讯控股腾讯控股(HK:00700) 36氪·2026-02-07 16:46

腾讯混元AI团队的研究成果 - 腾讯混元团队联合复旦大学发布研究,聚焦大模型的上下文学习能力,揭示了当前AI在处理全新、非公开情境时的核心弱点[2] - 研究构建了名为CL-bench的评测基准,包含近2000个由专家精心构造、从未在互联网上公开过的“全新情境”,用于测试模型的情境学习能力[6] 大模型运作机制与上下文的重要性 - 大模型运作分为两个基本阶段:预训练阶段,模型通过阅读海量数据记住知识和模式;情境学习阶段,模型需根据用户提供的全新上下文进行实时推理和判断[3] - 上下文学习能力至关重要,因为预训练数据是静态的,而真实世界是动态的,互联网上并非应有尽有,模型必须能根据即时提供的新信息来回答问题[3] - 上下文被视为AI的灵魂,若模型记不住或理解错上下文,就会产生“幻觉”,依据其预训练记忆中的通用规则进行错误回答[6] 主流大模型在上下文学习上的表现 - 根据CL-bench排行榜,目前最先进的模型在要求其仅依据新上下文作答时,整体正确率极低[8] - GPT-5.1 (High)模型的整体正确率仅为23.7%[8][9] - Claude Opus 4.5 Thinking模型的整体正确率约为21.1%[8][9] - 其他主流模型,如GPT-5.2 (High)、o3 (High)、Kimi K2 Thinking等,整体正确率大多在10%至18%之间徘徊[8][9] 模型在情境学习中失败的原因 - 失败的主要原因之一是预训练中学到的模式“根深蒂固”,导致模型在接收新上下文时,无法有效抑制预训练数据中的固有模式[10] - 复杂逻辑的推演能力是当前技术的瓶颈,当上下文非常长、逻辑非常复杂时,模型的表现会直线下降,其解决率会暴跌[11] 腾讯发力上下文学习的战略考量 - 此次研究是前OpenAI研究员、清华姚班天才少年姚顺雨入主腾讯AI后首次署名的研究成果,体现了公司在该领域的长远布局[2][12] - 腾讯的业务根基深植于“社交”与“内容”,如微信、QQ等场景产生连绵不断、高度碎片化的对话流,这对AI的上下文理解能力提出了极高要求[14] - 在游戏与企业服务领域,腾讯同样需要AI能根据即时操作、游戏内实时局势或特定的会议纪要、私有文档进行精准分析与反应,而非机械背诵[16] - 对于拥有海量应用场景的腾讯而言,一个能在复杂上下文中保持清醒、逻辑严密的模型,比一个博学但只会死记硬背的模型具有更大的商业价值和落地潜力[16]