Workflow
追踪记录(Traces)
icon
搜索文档
AI智能体不只靠模型进化:三层学习架构详解
深思SenseAI· 2026-04-07 08:05
文章核心观点 - LangChain创始人Harrison Chase提出,AI智能体的“持续学习”应涵盖三个独立层面:模型层、框架层和上下文层,仅聚焦于更新模型权重可能会错过80%的优化空间 [2] - 智能体系统的进化需要系统层面的持续优化,而不仅仅是依赖更好的基础模型 [2] - 大多数团队的最优策略是优先优化上下文层,其次是框架层,最后考虑成本高昂的模型层 [30] - 真正优秀的智能体系统应具备自我进化的能力,而非被动等待模型升级 [35] 三层架构 - 智能体系统可拆分为三层:模型层、框架层和上下文层 [4] - **模型层**:指模型权重本身,如Claude Sonnet、GPT-4等底层大模型 [4] - **框架层**:指驱动智能体运行的所有代码和基础配置,包括指令、工具调用链等逻辑,为所有实例共享 [5] - **上下文层**:指独立于框架的配置信息,如指令、技能、工具,可针对不同用户、团队或组织进行个性化设置 [5] - 三层架构的优势在于能精确诊断问题所在,明确是模型能力不足、框架逻辑问题还是上下文信息缺失 [8] 各层学习的特点与对比 - 模型层学习:主要指更新模型权重,方法包括有监督微调、强化学习等,但面临“灾难性遗忘”的核心难题 [9] - 模型层更新成本高、速度慢(周期可能长达数周)、不可人工审查,但影响上限最高 [13] - 框架层学习:指优化围绕模型的代码,包括提示词、工具调用方式和执行流程,其更新是代码级别的,可人工审查、回滚和进行版本控制 [15][16] - 上下文层学习:涉及对指令、技能、工具等“记忆”的更新,是当前最被低估的一层 [17] - 上下文层更新成本最低、速度最快、可人工直接检查和修改,但影响上限中等 [13] - 模型层如同“大炮”,上下文层如同“手术刀”,不同场景需要不同工具 [14] 上下文层学习的深度解析 - 上下文层学习可在不同层级发生:智能体级别、用户级别、团队/组织级别,且这些层级可以混合使用 [20] - 这使得智能体能够实现“千人千面”的服务体验,而无需为每个客户训练专用模型,成本相差数个数量级 [20] - 上下文层的更新有两种模式:**离线批处理**(事后回顾执行记录以更新)和**实时更新**(在执行任务过程中即时更新记忆) [21][23] - 记忆更新的“显性程度”是一个重要维度,未来趋势是智能体应能自动识别并记住有价值的信息 [23] 追踪记录的核心作用 - **追踪记录**是智能体完整的执行路径,是所有层面持续学习的“燃料”,没有它则学习无从谈起 [24][25] - 同一份追踪记录可在三个层面分别被利用:用于模型训练、框架优化或上下文更新 [26] - 构建或优化智能体系统的首要建议是建立完善的追踪记录收集机制 [28] 实际应用策略与行业启示 - 根据对比表,模型层影响上限最高但更新成本高、速度慢;框架层居中;上下文层成本低、速度快、可审查 [29] - 对于大多数团队,应优先做好上下文层,再优化框架层,最后考虑模型层,因为上下文层的投入产出比最高 [30] - 通用智能体平台则需要三个层面同时投入,例如OpenAI同时优化Codex模型、产品逻辑并支持用户自定义指令 [30] - 更强的模型解决的是通用能力问题,而框架和上下文层解决的是具体场景的适配问题,两者缺一不可 [31] - 评估智能体系统时应关注:是否持续变聪明、学习发生在哪一层、是否收集利用追踪记录、三层之间是否形成联动飞轮 [32][33] - 行业常见的误区是将所有问题归结为“模型不够好”,而忽略了框架和上下文层可能存在的巨大优化空间 [33][34]