上下文学习
搜索文档
深度|Andrej Karpathy:行业对Agent的发展过于乐观,一个能真正帮你工作的Agent还需要十年发展时间
Z Potentials· 2025-11-05 10:57
图片来源: Dwarkesh Patel Z Highlights Andrej Karpathy 是 OpenAI 联合创始人之一,前特斯拉 AI 与自动驾驶视觉部门负责人,离开特斯拉后创立 AI 教育公司 Eureka Labs 。他于 2015 年在斯坦福大学 获得博士学位,师从被誉为 AI 教母的李飞飞,主要研究领域为自然语言处理与计算机视觉的交叉领域,以及适用于这一任务的深度学习模型。他在 2024 年 被时代杂志评选为在 AI 领域最有影响力的百名人物之一。本期节目发布于 2025 年 10 月, Andrej Karpathy 接受了科技自媒体人 Dwarkesh Patel 的播客访谈,主 要讨论了大语言模型的工作机制与未来方向、 AI 强化学习与人类学习的差异、 Agent 系统的演化潜力,以及他对模型坍缩、数据质量和未来的教育的长期思 考。 Dwarkesh Patel: 你认为哪些问题需要十年才能真正解决?瓶颈在哪里? Andrej Karpathy: 我觉得,关键在于要让Agent真正"能用"。当我们谈论Agent时,无论是实验室的想法还是我个人的理解,都应该把它想象成一个你雇 来一起 ...
Meta拆掉AI持续学习路上的最大炸弹,“微调”又有了一战之力
36氪· 2025-10-27 13:13
持续学习的背景与路径 - 大型语言模型界正集体尝试突破持续学习和元学习能力的天花板,目标是实现模型的自我进化[1] - 实现持续学习的关键在于模型的“记忆”深度和可塑性,主流方法可归纳为三条主要路径[2] 路径一:改变上下文 - 通过修改模型的“工作记忆”,即上下文学习,使模型在当前对话中学会解决特定问题[4] - 最新进展是“系统提示学习”,模型通过语言层面的总结与归纳来反思成功与失败,并更新系统提示词以提升未来能力[4] - 此方法通过影响模型底层行为指令,使学习成果得以沉淀,解决了上下文学习浮于表面的问题[6] 路径二:引入外部记忆库 - 通过检索增强生成给模型配备外置数据库,持续学习体现在模型有能力更改、积累和维护此外部记忆库[7] - 谷歌DeepMind的“Reasoningbank”研究打造了一个“高级大脑记忆库”,存储从经验中总结出的“方法论”和“避坑指南”,而非零碎事实[7] - Anthropic的Claude Skill功能结合了上述两层方法,让智能体通过总结经验来学习新技能[9] 路径三:参数层面更新 - 此最根本的路径因训练开销巨大或方法不稳定而长期进展缓慢,例如强化学习和轻量化监督微调[9] - Meta AI的新论文《通过稀疏内存微调实现持续学习》为这条路径带来了根本性改变[9][11] 监督微调的挑战与Meta的解决方案 - 监督微调面临“灾难性遗忘”的根本矛盾,即学习新知识时会破坏存储旧知识的参数[11] - Meta提出的稀疏内存微调方法核心思想是只更新与“新知识”相关而与“旧知识”无关的参数[11] - 解决方案第一步是改造架构,将标准Transformer中的一些前馈网络层替换为拥有100万个“微型专家”的内存层,提供精细控制力[12][14][15] - 第二步引入TF-IDF算法精准定位既重要又安全的参数,即对新知识至关重要且不负责通用知识的参数[16][17][18][19][21] - 第三步进行稀疏更新,在反向传播时只允许梯度流向TF-IDF得分最高的Top-t个内存槽位,例如仅更新100万个槽位中的500个[22] 新方法的效果与优势 - 在学习新事实后测试原有任务表现,新方法仅导致分数下降11%,而LoRA下降71%,全量微调下降89%[23] - 新方法在学习能力上相当或更优,并在稳定性上具有压倒性优势,几乎治愈了监督微调的核心痛点[25][28] - 存储1000个新事实仅需占用约500个内存插槽,显示该方法具有持续学习海量新知识的巨大潜力[26] - 训练成本上,每一步需要更新的参数数量也远少于LoRA,降低了优化器的内存开销[26] 不同路径的比较与未来展望 - 非参数化学习路径存在根本尴尬,模型像依赖外部教科书或自己笔记的学生,未能真正内化知识[29] - 研究指出上下文学习泛化能力有限,因其过度关注统计特征而非任务根本规律[29] - 参数更新路径是更根本的解决方案,Meta的方案使其变得安全、稳定和可控[30][31] - 该进展意味着监督微调的春天可能来临,模型有望从静态工具转变为在经验流中不断成长的智能体[31][32]
X上63万人围观的Traning-Free GRPO:把GRPO搬进上下文空间学习
机器之心· 2025-10-22 16:46
文章核心观点 - 腾讯优图提出了一种名为Training-Free GRPO的新方法,将强化学习中的GRPO算法完整迁移到上下文学习空间,实现了无需更新模型参数的强化学习效果 [4][6][28] - 该方法在保留GRPO多路径探索、组内优势等核心优点的同时,显著降低了超大模型进行强化学习的成本和工程难度,使中小团队也能应用 [3][4][21][24] - 在数学推理和网页搜索等场景的实验中,该方法仅用100个训练样本和8-18美元成本,就在671B模型上实现了性能提升,并展现出更好的泛化能力 [13][14][17][25] 技术方法创新 - 核心创新在于不更新模型参数,而是将GRPO的“学习过程”搬进上下文空间,通过生成多条解答路径、比较组内优劣、根据优势信号更新文本型LoRA来实现学习 [4][10][11] - 方法完全对齐参数空间RL训练流程:多轮迭代学习、并行生成多条解答、提取文本型组内优势、优化文本型LoRA [10][20][26] - 与Self-Refine等就地改写方法不同,该方法在独立数据集上进行多轮迭代训练,对测试集的Out-of-Domain数据也有显著提升 [25] 实验效果与成本优势 - 在数学推理任务中,仅使用100个训练样本和约8-18美元成本,就在671B的DeepSeek-V3.1-Terminus模型上提升性能:AIME24指标从68.6提升至72.6,AIME25从52.9提升至54.0 [13][15] - 结合代码解释器时,AIME25指标从67.9提升至73.3,提升5.4个百分点;同时工具调用次数减少,表明模型学会了更高效使用工具 [14][15] - 在网页搜索场景中,Pass@1指标从63.2%提升至67.8%,提升4.6个百分点 [17][18] - 成本相比传统RL训练大幅降低,32B量级模型训练一次RL可能花费上万美元,而该方法仅需8-18美元 [4][24] 行业应用价值 - 该方法使超大模型的RL优化变得廉价、灵活、可持续,为中小团队和个人开发者提供了用得起的强化学习方案 [3][4][28] - 只需一个统一模型和API即可泛化到不同场景,避免了维护多个专用模型的系统复杂度和成本 [25] - 技术已开源并将集成到Youtu-Agent框架中,帮助开发者提升各种自定义场景的效果 [6][26]
大佬开炮:智能体都在装样子,强化学习很糟糕,AGI 十年也出不来
自动驾驶之心· 2025-10-22 08:03
文章核心观点 - AI行业存在过度夸大和脱离实际的现状,AGI的实现仍需约十年时间,其发展将带来每年约2%的GDP增量,但并非以当前主流预期的方式实现[2][3][5][6][10][12][13] AGI发展时间与瓶颈 - AGI的实现预计需要十年时间,当前AI智能体存在认知缺陷,包括不够聪明、缺乏多模态能力、无法进行计算机操作、缺乏持续学习能力等[12][13] - 行业曾过早尝试完整解决方案,如雅达利深度强化学习和OpenAI的Universe项目,但因缺乏足够的表征能力而失败[16][17][18] - 预测未来算法将与当前有所不同,但核心仍将是通过梯度下降训练的大型神经网络,需在架构、优化器、损失函数等方面全面改进[33][34][35] LLM认知缺陷与学习机制 - 大语言模型存在认知缺陷,不擅长编写独特或智力密集型代码,容易误解代码风格并增加不必要的复杂性[40][41][42][43] - 模型记忆能力过强,但缺乏类似人类的反思、知识提炼和合成数据生成过程,导致其输出多样性不足且容易发生模型崩溃[60][61][62][63][67] - 人类学习通过内置硬件和进化编码的算法进行,而LLM通过模仿互联网文档训练,是两种不同的智能路径[19][20][22][23] 强化学习局限性 - 强化学习存在显著缺陷,其通过最终结果奖励整个过程的机制噪音过大,无法有效分配部分信用[50][51][52] - 基于过程的监督虽为替代方案,但自动化分配信用困难,且易受对抗性示例影响,导致模型找到漏洞欺骗评判系统[54][55][56][58] - 人类不使用强化学习进行智能任务,而是通过更复杂的回顾和思考过程,当前LLM缺乏相应机制[21][50][52] 自动驾驶与教育应用挑战 - 自动驾驶实现需要较长时间,因涉及复杂物理世界交互,其难度远高于纯数字知识工作[6][10] - 教育的未来可能涉及AI辅助,但需解决模型当前认知缺陷,如持续学习、知识提炼和长上下文处理等[6][10][31][32] 智能进化与经济影响 - 智能进化类似计算趋势的延伸,超级智能将是社会自动化的进步,逐步承担数字和体力工作[94][95] - AGI对经济的影响主要体现在自动化知识工作,预计可覆盖10%到20%的经济份额,但需考虑社会任务重构和工作界面变化[83][84][85] - AI当前最成熟的应用在编程领域,因代码高度结构化且具备相应基础设施,其他文本处理任务如内容重写等仍面临挑战[88][89][90][92]
Andrej Karpathy 开炮:智能体都在装样子,强化学习很糟糕,AGI 十年也出不来
机器之心· 2025-10-18 13:44
AGI发展时间框架与当前局限 - AGI的实现仍需约十年时间,当前AI代理存在认知缺陷,包括缺乏多模态能力、无法进行计算机操作、缺乏持续学习能力等[10][11] - AI行业存在过于乐观的预测,将当前阶段称为"智能体的十年"更为准确,而非"智能体之年"[10] - 实现真正可工作的AI代理需要解决智能程度不足、持续学习、记忆能力等关键技术瓶颈[11] LLM认知缺陷与技术挑战 - 大语言模型存在严重认知缺陷,无法胜任复杂编程任务,特别是在处理非模板化、智力密集型代码时表现不佳[35][36] - 当前编码模型在理解自定义实现和代码风格方面存在局限,经常误解开发者的编程意图[36][37] - 模型倾向于过度依赖训练数据中的常见模式,难以适应创新性的代码架构和实现方式[38] 强化学习范式的问题 - 强化学习存在根本性缺陷,其通过最终结果反向加权整个过程的机制效率低下[45][46] - 人类并不使用类似强化学习的方式解决问题,而是通过更复杂的反思和回顾过程[45][46] - 基于过程的监督比基于结果的奖励更合理,但实现自动化信用分配面临技术挑战[48][49] 人类学习与AI学习的差异 - 人类学习通过信息操纵和思考实现知识获取,而LLM仅通过预测下一个token学习,缺乏深度思考机制[56] - 人类记忆能力有限反而有利于泛化学习,而LLM过度记忆训练数据可能阻碍认知能力发展[62][63] - 模型崩溃问题源于合成数据训练的局限性,需要保持足够的熵值来维持输出多样性[57][64] AI对经济增长的影响 - AGI将逐步融入经济增长,预计每年带来约2%的GDP增量,但不会以爆发式方式实现[75][76] - AI自动化将首先应用于适合数字化的领域,如呼叫中心等结构化任务,而非复杂的知识工作[78][79] - 编程是AI应用的理想起点,因为代码本质上是结构化的文本,与LLM的技术特性高度匹配[82][83] 技术发展趋势预测 - Transformer架构可能继续演进,但梯度下降训练大型神经网络的基本范式将保持不变[29][30] - 未来技术进步需要算法、数据、硬件等多方面协同改进,而非单一领域的突破[30][74] - 认知核心参数规模可能优化至十亿级别,通过知识蒸馏去除过度记忆,保留核心推理能力[67][70] 实际应用部署路径 - AI部署将采用渐进式自动化策略,人类作为监督者管理多个AI代理,而非完全取代人工[79][80] - 当前AI在经济价值创造上主要集中在编程领域,其他知识工作的自动化进展相对缓慢[82][84] - 超级智能应被视为社会自动化的自然延伸,是计算趋势发展的结果,而非突变式突破[86]
万字长文!RAG实战全解析:一年探索之路
自动驾驶之心· 2025-08-07 17:52
背景介绍 - RAG(检索增强生成)方法结合了检索模型和生成模型的能力,以提高生成文本的质量和相关性 [1] - 该方法由Meta在2020年提出,让语言模型能够获取内化知识之外的信息,并以更准确的方式回答问题 [1] - 在大模型时代,RAG用于解决幻觉问题、知识时效问题和超长文本问题等大模型本身的制约或不足 [1] RAG的挑战 - 主要面临三个方面的挑战:检索质量、增强过程和生成质量 [2] - 检索质量方面存在语义歧义、用户输入变复杂、文档切分和多模内容提取等挑战 [5] - 增强过程面临上下文集成、冗余和重复、排名和优先级等挑战 [5] - 生成质量方面存在过度依赖检索内容、无关性、毒性或偏见等问题 [5] 整体架构 产品架构 - 包含模型层、离线理解层、在线问答层和场景层四层 [11] - 模型层支持自研序列猴子、开源大模型和第三方模型,并优化跨语言Embedding模型 [11] - 离线理解层包括智能知识库和搜索增强模块,负责非结构化文本处理和检索精准度 [11] - 在线问答层支持多文档、多轮次、多模态及安全性与拒识等功能 [11] - 场景层针对不同行业特点预制多种场景类角色 [11] 技术架构 - 分为query理解、检索模型和生成模型三个主要组成部分 [10] - query理解模块包括query改写、扩写和意图识别等,旨在提高召回率 [12] - 检索模型从文档集或知识库中检索相关信息,使用信息检索或语义搜索技术 [12] - 生成模型根据Prompt或上下文生成新内容,包括chat系统和Prompt优化等 [13] Query理解 - 引入query理解模块解决用户query措辞不利于检索和生成结构化查询的问题 [14] - 意图识别模块利用LLM实现决策功能,可应用于选择器模块或查询引擎 [15] - query改写模块利用LLM重新措辞用户query,提高检索效果 [16] - HyDE技术生成假设答案并转换为嵌入,从数据库中检索最接近的实际文档 [17] - query扩写模块将复杂问题拆解为子问题,采用分而治之的方法处理 [22] - Step-Back Prompting通过抽象和推理两步处理复杂任务 [23] - CoVe技术通过验证和完善回答提高大型语言模型答案的可靠性 [25] - RAG-Fusion生成多个query并行执行搜索,使用倒数排名融合重新排序 [27] - ReAct将复杂查询分解成更简单的子查询,结合思维链提示和Action计划生成 [29][31] - query重构模块通过一次请求实现改写、拆解和拓展用户输入 [32] 检索模型 挑战 - 依赖于Embedding模型的向量化是否准确 [33] - 相关信息出现在输入上下文开头或结尾时性能最高,中间性能明显下降 [34] 架构 - 包括文档加载器、文本转换器、文本嵌入模型、向量数据库和索引等组件 [35][37] 文档加载器 - 从配置源加载文档数据,支持懒加载和多种来源如txt文件、网页和YouTube视频 [38] 文本转换器 - 将大型文档分割成较小块,适应模型上下文窗口 [39] - 递归分割文本保持相关文本片段在一起 [40] - 常见类型包括HTML、Markdown、Code、Token和Character等 [43] - 使用Chunkviz工具评估文本转换器工作情况 [44] 文本嵌入模型 - 创建文本的向量表示,捕捉语义并支持语义搜索 [45] - 应具备跨语种检索、长原文和短摘要关联、不同表述相同语义关联等能力 [45] 向量数据库 - 支持嵌入式的高效存储和搜索,检索与嵌入查询最相似的嵌入向量 [47] 索引 - 摘要索引将节点存储为顺序链,支持顺序遍历或基于关键词过滤 [51] - 树索引构建层级树状结构,父节点是子节点的摘要 [53] - 关键词表索引提取关键词并构建多对多映射 [55] - 向量索引利用文本嵌入模型将文本块映射成向量并存储在向量数据库中 [57] 排序和后处理 - 基于相似度分数、关键词、LLM重新排序或时间进行过滤和排序 [59] 生成模型 - 回复生成策略包括依次结合相关文本块修正回复或在Prompt中填充多个文本块 [66] - prompt拼接策略包括字符串提示和聊天提示 [61] - 字符串提示连接模板,聊天提示由消息列表组成 [62][63] 插件 - 基于混合演示检索的上下文学习方法融合文本检索和语义检索进行多路召回 [64] - 检索模块包括文本检索和语义检索,分别采用BM25和双塔模型 [70] - 重排模块使用倒序排序融合算法和两端填充排序策略 [71] - 生成模块设计prompt组装模块,融入长期和短期对话记录 [72] 引用或归因生成 - 归因让模型生成内容与参考信息对齐,提供证据来源确保信息准确性 [73] - 模型生成方法直接让模型生成归因信息,依赖模型能力 [75] - 动态计算方法在流式生成时匹配语义单元和参考源 [76] 评估 - Faithfulness评测生成的回答是否忠实于contexts,避免幻觉 [79] - Answer Relevance评测生成的答案是否解决实际问题 [79] - Context Relevance评测检索的上下文是否重点突出且少含无关信息 [79] - RGB基准研究RAG对大型语言模型的影响,分析噪声鲁棒性、拒答等能力 [77] - RAGAS框架对RAG pipeline进行无参考评估,考虑检索系统和LLM能力 [81] - LlamaIndex提供衡量生成结果质量和检索质量的模块 [81] 总结 - RAG技术需要不断实践和研究才能打磨出符合企业应用的精品 [82] - 本文总结了过去一年在RAG实践的关键模块,属于大纲式技术普及文章 [82]
不靠海量数据,如何精准喂养大模型?上交Data Whisperer:免训练数据选择法,10%数据逼近全量效果
机器之心· 2025-07-29 14:38
核心观点 - 提出Data Whisperer框架 利用预训练模型的上下文学习能力实现免训练的数据选择 仅需10%数据即可达到接近全量数据的微调效果 [2][4][6] - 该方法通过注意力机制和ICL模拟参数更新 实现高效稳定的数据筛选 无需额外训练或人工标注 [6][10][36] - 在多个基准测试中显著超越传统方法 同时大幅降低计算成本和时间消耗 [15][18][35] 方法机制 - 基于ICL少样本构建和注意力感知权重 结合模型输出质量与注意力贡献进行综合打分 [7][8][10] - 理论支持显示ICL通过上下文样本调整注意力权重 等效于隐式参数更新 [13][14][36] - 支持弱选强训机制 小模型选题大模型微调 实现知识迁移并降低计算负担 [22][23][24] 性能表现 - GSM8K数学任务:使用10%数据达到72.46% 超过全量数据71.39%的表现 [15][19] - DialogSum摘要任务:在Qwen模型上达到43% 较SOTA方法提升2.5个百分点 [15][19] - 效率指标STR低至0.03-0.2 较传统方法提升8-20倍速度 [18][21] - 在1%/5%/10%低预算场景下均保持领先优势 [15][35] 技术细节 - 最优配置为n_d=10示范样本和n_q=5查询样本 增加样本数量效果饱和 [26][27][28] - 中间层注意力(如Layer13)提供最稳定的语义信息 优化选题效果 [30][31][32] - 倾向选择低困惑度样本 符合易例优先理论 [33][34] 对比优势 - 全面超越GraNd(基于梯度)/EL2N(预测误差)/CCS(多样性)/Nuggets(需训练打分器)等方法 [15][35][38] - 在准确率、效率、稳定性三个维度均领先 尤其擅长低预算场景 [18][35] - 实现结构感知和推理驱动的数据选择新范式 [39] 应用前景 - 可迁移至法律、医疗等复杂结构任务领域 [41] - 未来可结合人类反馈、提示工程或合成数据方法进一步优化 [41] - 揭示任务对齐可不依赖人类标签或大数据量 通过结构化推理机制引导学习 [42][43]
一个任务50次调用,成本狂砍90%?Manus首次公开上下文工程秘诀,一堆反复重写换来的教训
AI前线· 2025-07-21 15:04
核心观点 - 公司选择押注于上下文工程而非端到端训练模型 使产品迭代周期从几周缩短至几小时 并与底层模型进步保持正交关系 [1][2] - 上下文工程是实验科学 已四次重建Agent框架 通过"随机梯度下降"方法实现局部最优解 [2] - KV缓存命中率是生产阶段AI Agent最重要的单一指标 直接影响延迟和成本 缓存与非缓存token成本相差10倍 [4][5] - 文件系统被视为最终上下文 解决长上下文窗口痛点 实现无限大小、持久化存储和结构化外部记忆 [18][21] - 通过"背诵"机制操纵模型注意力 典型任务需50次工具调用 持续更新待办事项列表保持目标聚焦 [26][30] - 保留错误回合是改进Agent行为的有效方法 错误恢复是真正Agent行为的清晰指标 [32][35] - 少样本提示在Agent系统中可能适得其反 需增加多样性打破行为模式 [36][37] KV缓存设计 - 平均输入输出token比例达100:1 缓存显著降低生成第一个token时间和推理成本 [4][5] - 提高KV缓存命中率三原则:保持提示前缀稳定、上下文只追加内容、明确标记缓存断点 [8][9] - 时间戳等动态元素会破坏缓存 序列化稳定性是关键 某些框架需手动插入缓存断点 [9] 工具管理策略 - 工具数量激增导致模型选择低效 应避免迭代中动态添加/移除工具 [11] - 采用上下文感知状态机管理工具可用性 通过屏蔽token对数而非修改定义来约束动作选择 [11] - 工具定义位于上下文前端 变更会导致后续KV缓存失效 可能引发模式违规或幻觉动作 [14] - 设计一致前缀的动作名称(如browser_/shell_) 实现无状态对数处理器的工具组选择 [15] 文件系统应用 - 128K token上下文窗口在现实场景仍不足 存在观察数据过大、性能下降和成本高三大痛点 [18][20] - 压缩策略需保持可恢复性 如保留URL可恢复网页内容 文档路径可恢复文档内容 [24] - 文件系统操作实现结构化外部记忆 可能为状态空间模型(SSM)解锁新Agent类型 [24] 注意力管理 - 创建并持续更新todo.md文件是故意设计的注意力操纵机制 [26][27] - 通过重写待办事项将全局计划推入模型近期注意力范围 避免50次工具调用中的目标偏离 [30] 错误处理机制 - 保留错误回合使模型能隐式更新内部信念 减少重复错误概率 [35] - 错误恢复能力是真实Agent行为的指标 但被学术基准低估 [35] 少样本提示优化 - 语言模型会模仿上下文中行为模式 重复动作可能导致漂移和幻觉 [36] - 引入结构化变化(序列化模板/措辞/格式噪声)打破模式 增加多样性提升鲁棒性 [37][38]