Workflow
记忆系统
icon
搜索文档
从 ReasoningBank 到 MetaAgent,RL 未必是 Agent 自进化的必要解?
机器之心· 2025-10-25 10:30
文章核心观点 - 智能体自进化的研究正从单一依赖强化学习优化转向多路线探索模式,其中记忆系统的工程技术改进是当前主流方向之一 [1][4] - 记忆系统的核心价值在于将智能体的瞬时“思考”转化为可累积、可迁移的长期经验,使其不仅会“思考”,还能记得“如何思考”,从而具备终身学习和适应能力 [5][7] - 除了记忆系统,行业还在探索基于智能体元认知、自我诊断和架构重构等其他技术路线,以实现更深层次的自进化 [1][14] 当 RL 不再是自进化智能体的唯一答案,记忆工程是否有可能独挑大梁? - 行业过去主要围绕强化学习优化智能体自进化,但当前趋势转向通过工程侧的记忆机制改进,以高效简易的设计促进智能体将推理转为可复用记忆 [5] - 无记忆智能体在处理每个任务时都从“空白”状态开始,导致重复错误和任务连贯性缺失 [8] - 轨迹记忆阶段存储完整的交互序列,但其知识抽象层次低、检索成本随轨迹数量指数级上升,且难以泛化到结构不同的新任务 [8] - 工作流记忆阶段从成功轨迹中提取可复用的结构化操作模板,但学习信号来源单一,无法从失败尝试中吸取教训,对环境变化的适应性较弱 [9] - ReasoningBank 机制将记忆抽象层次从“操作记录”提升到“可泛化推理策略”高度,其核心是包含标题、描述和内容三个字段的结构化推理记忆单元 [10] - ReasoningBank 依赖自我判断反馈回路的闭环学习过程,包括记忆检索、构建和整合机制 [10] - 通过记忆感知测试时扩展机制,额外的计算资源被用于加速和多样化经验生成,例如进行多路径并行推理 [10][11] - MaTTS 机制在网络浏览和软件工程基准测试中,相对提高了高达34.2%的有效性,并减少了16%的交互步骤 [12] - ReasoningBank 机制减轻了对基础模型重复微调的成本,支持更轻量、更快速的智能体适应性进化 [13] 记忆系统不是终点,智能体自进化还藏着哪些被忽视的技术方向? - 除记忆系统外,行业研究人员正从智能体内在的自我识别、外在的工具和策略辅助等机制着手,探索自进化的其他技术路线 [14]
梳理了1400篇研究论文,整理了一份全面的上下文工程指南 | Jinqiu Select
锦秋集· 2025-07-21 22:03
文章核心观点 - 上下文工程已成为优化大语言模型性能的关键技术领域 通过系统化框架整合信息获取 处理和管理三大组件 可显著提升模型在复杂任务中的表现 [1][2] - 当前技术面临模型理解与生成能力不对等 长序列处理效率低下以及多模态整合不足等核心挑战 需要突破传统Transformer架构限制 [135][136] - 模块化RAG系统 内存增强型智能体和工具集成推理等实现范式正在推动AI从被动文本生成器向主动世界交互器进化 [68][91][109] Context Engineering技术体系 信息获取与生成 - Prompt Engineering通过Zero-Shot Few-Shot及Chain-of-Thought等高级推理框架激发模型潜力 其中Tree-of-Thoughts在24点游戏中将成功率提升至70%以上 [4][5] - Self-Refinement机制实现模型自我迭代 N-CRITICS采用集成学习思路 而Agent-R通过蒙特卡洛树搜索实时纠正推理路径 [9][10][11] - RAG架构突破模型知识边界 进阶方案如Self-RAG引入自适应检索 HippoRAG模仿人类记忆机制补充关联信息 [14][15] 信息处理 - 长上下文处理依赖架构革新 Mamba等状态空间模型将计算复杂度降至线性 LongNet的Dilated Attention理论支持十亿级token处理 [29][30] - 位置插值技术无需微调即可扩展上下文窗口 YaRN和LongRoPE实现数千到数百万token的跨越 配合FlashAttention-2带来近2倍速度提升 [31][32] - 多模态融合面临模态偏见挑战 先进方法采用交叉注意力机制或统一预训练 结构化数据处理中代码表示效果优于自然语言描述 [41][43] 信息管理 - 内存架构借鉴操作系统概念 MemGPT实现虚拟内存式换页 MemoryBank基于艾宾浩斯曲线动态调整记忆强度 [49][51] - 上下文压缩技术显著降低计算负担 ICAE实现数倍压缩率 ACRE双层KV缓存系统兼顾全局视野与局部细节 [58][60] - 应用场景覆盖法律合同分析 多季度财报推导等长程依赖任务 以及具备持续学习能力的对话式AI [63][66] 系统级实现 RAG系统演进 - 模块化RAG实现乐高式灵活组合 FlashRAG提供5核心模块16子组件 ComposeRAG支持原子化问题分解与自我反思优化 [72][73] - Agentic RAG赋予自主智能体能力 如调查员般执行动态检索 Self-RAG通过反思token形成闭环自优化系统 [74][75] - 图增强RAG转向结构化知识表示 GraphRAG采用社区发现算法分层索引 HippoRAG利用PageRank提升多跳问答性能 [76] 内存增强型智能体 - 记忆系统分类涵盖短期工作内存与长期持久化存储 后者通过外部存储解决上下文窗口限制 [82][83] - REMEMBERER框架实现经验记忆 LangGraph等工具集成RAG与向量数据库 Mem0结合图数据库提升检索效率 [84][85] - 评估框架LongMemEval揭示商业AI助手在长时间交互后准确率显著下降 反映记忆持久性不足的行业痛点 [87] 工具集成推理 - Function Calling技术路径分化 微调方法稳定性高但资源密集 提示工程方案如Reverse Chain更轻量灵活 [95][96] - 训练数据生成策略成熟 APIGen分层验证流程支持数千API覆盖 Hammer框架通过函数掩码增加训练难度 [97] - 多智能体协作框架展现集体智慧 DyLAN实现精密任务拆解 MetaGPT增强专业化分工 MAD优化并行处理能力 [109] 评估与挑战 - 组件级评估需针对性设计 如"大海捞针"测试长上下文处理 结构化数据集成需关注序列与结构信息冲突场景 [124][125] - 系统级评估暴露协同问题 Agentic RAG需测试任务分解准确性 工具集成系统需覆盖完整交互轨迹 [126][127] - 新兴基准如GTA显示GPT-4完成率远低于人类 反映真实场景性能差距 为创业者指明改进方向 [128][129]
恺英网络(002517):Q1业绩不俗 新品贡献增量
新浪财经· 2025-04-29 10:43
财务表现 - 2024年公司实现营收51.18亿元(同比+19.16%),归母净利16.28亿元(同比+11.41%),扣非归母净利15.99亿元(同比+18.43%)[1] - 2024年归母净利低于预期18.6亿元,主因Q4老游戏流水环比回落[1] - 2025Q1营收13.53亿元(同比+3.46%,环比+13.62%),归母净利5.18亿元(同比+21.57%,环比+48.71%),扣非净利5.16亿元(同比+21.66%,环比+62.19%)[1] - 2024年毛利率81.28%(同比-2.19pct),2025Q1毛利率83.57%(同比+1.53pct)[3] 产品运营 - 新产品《龙之谷世界》2025年2月上线,首日登顶AppStore游戏榜,上线5天流水突破2000万元[2] - 自研项目《盗墓笔记:启程》已开启预约,《斗罗大陆:诛邪传说》已启动首测[2] - 2024年境外收入3.75亿元(同比+221.48%)[2] 战略布局 - 通过投资自然选择等公司强化技术储备,其中《EVE》应用AI对话技术和记忆系统[2] - 持续深化IP战略,积累丰富国内外IP授权资源,挖掘中国传统文化IP[2] 费用结构 - 2024年销售/管理/研发费用率33.91%/3.96%/11.69%,分别同比+6.51/-2.71/-0.57pct[3] - 2025Q1销售/管理/研发费用率33.92%/2.97%/7.44%,分别同比-3.16/-0.84/-1.03pct[3] 盈利预测 - 下调2025-2026年归母净利预测至20.4/24.1亿元(原22.4/25.9亿元,调整幅度-9%/-7%),预计2027年归母净利27.2亿元[4] - 给予2025年25X PE估值,目标价23.88元(原20.81元对应20X PE)[4]