滴普赵杰辉:智能体记忆机制的代际跃迁,是AI时代被低估的一个产业变量
IPO早知道·2026-05-09 15:10

文章核心观点 - AI产业化落地的核心是一道经济学题,即每个token创造的生产力价值必须大于其消耗的算力成本,这被称为“token经济”的根本约束[6] - 决定token经济能否成立的关键变量,不仅是模型能力,还有智能体的记忆机制[3][6] - 好的记忆机制能让AI真正理解企业具体知识,提升每个token的业务价值密度;糟糕的记忆机制则会导致token消耗成倍放大,影响经济性[8] - 从2023年到2026年,智能体记忆机制经历了从“会话级记忆”、“任务级记忆”、“持久化记忆”到“本体范式记忆”的代际演进,其核心趋势是走向结构化、可推理、本体驱动[9][24] - 智能体平台的下一阶段竞争,可能很大程度上是记忆机制的竞争,而企业级AI的深度落地需要通用模型与企业大模型协同,前者降低token成本,后者提升token价值[33] 根据相关目录分别进行总结 一、我们一直忽视了一个问题 - 过去三年企业AI深度落地的主要挑战并非模型不够强,而是token创造的价值不足,关键在于提升token在企业具体场景中的“生产力价值密度”[6] - 大模型本质上是无状态的,每次API调用独立,不记得历史对话或企业业务规则,这限制了其作为企业“员工”的能力[7] - 从无状态大模型到有状态智能系统的连接桥梁是记忆机制,其好坏直接决定了token经济等式的两端(价值密度与消耗量)[7][8] 二、第一代记忆:早期 LangChain、Dify 的“会话级记忆” - 以早期LangChain和Dify为代表,通过维护对话历史缓冲区(如Dify最多2000 tokens和500条消息)解决了多轮对话的连续性问题,是伟大的开源贡献[11] - 会话级记忆的天然边界是会话结束记忆基本消失,智能体无法跨会话积累和沉淀知识,而企业的知识资产(如know-how、客户档案)需要长期载体[12] - 第一代记忆解决了“对话连续性”,下一代需解决“任务连续性”[12] 三、第二代记忆:Manus 与 DeepResearch 的“任务级记忆” - 以Manus及OpenAI、Google的DeepResearch类产品为代表,将记忆升级为“任务级工作空间”,在沙箱中维护文件系统、检索摘要等,使智能体能在数小时跨度的复杂任务中保持连贯[14] - 这一代记忆面向“帮一个用户完成一次复杂研究”的场景,任务结束工作空间随之归档,其设计目标并非跨任务的知识沉淀或服务企业大规模并发场景[14][15] - 在长任务中token消耗会显著放大,在企业级场景下面临成本控制挑战[15] 四、第三代记忆:OpenClaw与Hermes Agent的“持久化记忆” - 以OpenClaw和Nous Research在2026年开源的Hermes Agent为代表,致力于实现记忆跨任务、跨会话长期持久存在并能够“自我进化”[17] - OpenClaw用结构化文本文件(如MEMORY.md、SKILL.md)作为可持久化、可团队共享的记忆载体,实现了从“情景记忆”向“程序性记忆”的演进[17] - Hermes Agent采用三层叠加记忆架构(上下文压缩层、SQLite全文索引层、MEMORY.md持久层+Honcho用户模型),并引入“自我改进”闭环,使记忆升级为“主动演化的认知系统”[17] - 将第三代范式用于企业大规模落地时,面临结构化推理能力不足、token经济性有待优化(文件式记忆框架存在数倍的token放大)、写回与冲突管理、以及组织视角与合规等工程课题[18][19] 五、产业其他玩家正在收敛于哪里 - 产业界多个独立团队正不约而同地朝同一方向收敛:智能体记忆的下一代需要走向结构化、可推理、本体驱动[24] - Glean在其第三代平台“Enterprise Context”中,将企业图谱(Enterprise Graph)作为智能体的统一上下文层,将记忆视为“关系图”而非“文档堆”[22] - Snowflake和Databricks等数据平台在数据与LLM之间显式插入语义/本体层,Snowflake的研究指出引入“本体层”后,回答准确率显著提升,工具调用次数明显减少[23] - 学术界研究(如arxiv 2604.20795)也提出将自动本体构建作为LLM的外部记忆、验证、规划层,是构建企业级AI系统的基础[23] 六、第四代:滴普科技探索的“本体范式记忆”——以 Deepexi 企业大模型本身作为记忆载体 - 滴普科技基于400多家头部客户的本体建模know-how训练Deepexi企业大模型,使其本身成为FastAGI智能体平台的记忆机制交付组件,即“本体范式记忆”[28] - 该范式包含两层:Deepexi企业大模型承载“静态”的本体记忆,将企业的稳定知识理解并编码为可推理的本体模型;FastAGI智能体工程承载“动态”的演进记忆,实时连接业务系统并更新知识,形成静态与动态记忆的闭环[29][30] - “本体范式记忆”具备五个企业级特性:动态持久性、本体结构性、推理一致性、企业语义精确性以及提升Token价值密度的潜力[30] - 为支撑该机制,公司沉淀了两类资产:Deepology企业本体语料高质量数据集(已沉淀108个业务本体集)和FastAGI平台的预置技能集(已积累280+ Skills)[31] - 该选择本质上是为提升token经济等式的价值产出端,让token更“懂业务”,是被真实客户落地中“业务账本算不过来”所驱动的工程选择[31] 七、这件事对产业意味着什么 - 技术路径:智能体平台的下一阶段竞争,可能很大程度上是记忆机制的竞争,这可能是决定企业级AI落地深度的更关键因素[33] - 产业格局:通用模型与企业大模型更可能是协同关系,通用模型负责降低token成本,企业大模型负责提升token的业务价值密度,两者协同才能使token经济在企业级场景成立[33] - 产业窗口:本体资产的积累需要3至5年时间,早期在本体范式企业大模型上投入的玩家,可能在未来建立起较高的竞争壁垒[34]

滴普赵杰辉:智能体记忆机制的代际跃迁,是AI时代被低估的一个产业变量 - Reportify