Workflow
中训练
icon
搜索文档
Dwarkesh最新播客:AI 进展年终总结
36氪· 2025-12-25 07:15
AI发展现状与AGI时间线 - 以强化学习为核心的“中训练”正成为大型语言模型的重点突破方向,前沿科技公司正通过此方法将大量具体技能预先植入模型[3] - 当前对强化学习中训练的极度乐观态度与宣称AGI临近的观点存在根本矛盾,如果模型已接近类人学习者,这种基于“可验证结果”的训练路径是走不通的[14] - 为模型预置大量具体技能的做法,恰恰是AGI还很远的证据,因为如果模型泛化能力很强,就不需要单独构建那么多强化学习环境来教它操作特定工具[3][16] AI模型能力与泛化挑战 - 人类劳动力的价值在于其训练成本不笨重,能根据需要灵活掌握新技能,而当前AI缺乏稳健高效的方法来习得工作中大量需要的公司特定、情境特定技能[4][23] - 每天人类需处理上百件需要判断力、情境感知及工作中习得技能的事情,仅靠预置一组固定技能,连一份工作都无法完全自动化[24] - 在机器人等领域,根本问题是算法而非硬件或数据,人类只需很少训练就能远程操控硬件完成有用工作,这反衬出当前AI缺乏类人学习核心[19] AI经济扩散与市场潜力 - 企业有很强动机雇佣AI劳动力,因为经过验证的AI员工可以无损无限复制,且不存在招聘中的“柠檬市场”问题[5][29] - 当前AI未在企业广泛部署、未在编程外创造大量价值,本质是模型能力不足,而非技术扩散需要时间,所谓“经济扩散滞后”是为能力不足找借口[6][28] - 如果AI能力真达到AGI水平,其扩散速度会快得惊人,企业完全愿意每年花费数万亿美元购买token,因为知识工作者年总薪酬高达数十万亿美元[29] 技术演进路径与规模定律 - 预训练阶段的扩展定律非常清晰,算力数量级提升会导致损失函数稳定下降[10] - 但将预训练规模化的乐观经验移植到带可验证奖励的强化学习上缺乏依据,有研究指出,要强化学习获得类似GPT级别的提升,总算力规模可能需要提升到一百万倍[11][33] - 持续学习将是AGI之后模型能力提升的主要驱动力,预计前沿团队明年会发布持续学习雏形功能,但达到人类水平可能还需5到10年[13][40] 评估框架与未来影响 - 将AI模型智能与“中位数人类”对比会系统性高估其能创造的价值,因为知识工作的巨大价值来自最顶尖的一小撮人[12][35] - 一旦模型真正达到顶级人类水平,其影响力可能是爆炸式的,因为这意味着服务器上运行着数十亿个类人智能体,能复制、融合彼此全部学习成果[12][25] - 模型在“看起来很厉害”上的进步速度符合短时间线派预测,但在“真正变得有用”上的进展速度更符合长时间线派判断[32]
Meta最新论文解读:别卷刷榜了,AI Agent的下一个战场是“中训练”
36氪· 2025-10-13 15:19
AI行业竞争焦点转变 - 2025年AI竞争焦点从跑分比拼转向Agent自主完成复杂长程任务的能力 [1] - 行业巨头如xAI和Anthropic发布新品时均强调同一能力 [1] - AI的下一战场被明确为通用Agent [2] Agent落地的现实瓶颈 - 除编程领域外,Agent落地应用寥寥无几 [2] - 核心瓶颈之一是反馈机制的困境 [2] - 现有反馈机制要么太弱要么太贵,阻碍预训练模型蜕变为强大Agent [2] 主流Agent训练方法的局限性 - 模仿学习(监督微调)依赖昂贵静态反馈,高质量专家数据难以大规模生产 [4] - 模仿学习导致模型泛化能力极差,无法适应训练数据外的情况 [4] - 强化学习依赖复杂动态反馈,在真实世界任务中奖励信号常缺失、稀疏或延迟 [5] - 强化学习应用高度依赖精心设计的奖励函数或人工调整的训练流程 [5] Meta提出的“中训练”范式 - Meta等机构在2025年10月论文中提出“早期经验”的“中训练”范式 [2][7] - 该范式利用Agent自己探索产生的状态变化作为宝贵的学习信号 [7] - 设计两种具体训练策略:隐式世界建模和自我反思 [7] 隐式世界建模策略 - 让Agent学会预测“如果我这么做,世界会变成什么样” [9] - 具体步骤包括自我尝试、记录数据、微调训练预测能力 [9] - 通过大量“作死”和观察后果,让Agent悟出世界运行规律 [10] 自我反思策略 - 让Agent学会解释“为什么专家的做法比我的其他想法更好” [11] - 具体步骤包括自我尝试、教练点评、微调训练预思考能力 [11] - 训练Agent学会先生成反思推理再输出正确动作 [11] “中训练”范式的有效性验证 - 在8个多样化环境中测试显示,平均成功率比传统模仿学习提升9.6% [15] - 在未见过的任务上表现提升9.4%,显示强大泛化能力 [15] - 作为强化学习初始化时,最终性能提升最多6.4% [15] - 提升在不同复杂度的环境中保持稳定 [17] “中训练”的理论基础与价值 - 谷歌DeepMind研究证明成功Agent内部必须拥有准确“世界模型” [18] - 传统模仿学习只学习从状态到行为的浅层映射 [20] - “早期经验”补上了建立世界因果理解的关键课程 [21] - 可能需“预训练+中训练+后训练”三段式训练范式通往通用Agent [23] 参数效率与新Scaling Law可能性 - “早期经验”展示通过自我递归训练释放参数潜力的可能性 [25][27] - 700M参数小模型经训练后可在某些任务上超越参数量大十几倍的大模型 [25] - 传统增加参数量的做法边际收益递减很快 [27] - 可能预示一个新的属于Test Time Compute的Scaling Law [28]