谷歌Hope架构
搜索文档
谷歌新架构逆天!为了让AI拥有长期记忆,豆包们都想了哪些招数?
搜狐财经· 2025-12-09 13:32
文章核心观点 - 大模型的长期记忆能力正从工程补丁演变为其核心能力坐标轴 其角色定位从被动存储信息的外部容器转变为能够影响决策和塑造行为、内化于模型结构与智能体工作流的关键组成部分 [4][19] - 长期记忆是决定大模型能否成为可长期使用、被信任的“助手”或“持续工作的智能体”的关键能力 而不仅仅是提升短期对话质量 [2][4] - 2025年行业在长期记忆技术路径上出现多元化探索 主要方向包括在模型架构层面区分长短期记忆系统、将记忆理解为多时间尺度连续体、通过强化学习训练记忆取舍能力以及结合超长上下文与独立记忆层等 [4][9][11][16] 大模型长期记忆的重要性与演变 - 长期记忆能力决定了AI能否在跨会话、跨场景中保持连续性 记忆用户偏好、任务状态等关键信息 从而从“一次性消耗品”转变为真正的“助手” [2][5] - 行业趋势显示 长期记忆正从依赖向量数据库和RAG的“外接硬盘”式工程补丁 转变为逐步进入模型结构与智能体工作流的核心能力 [4][19] - 未来大模型的核心差异点之一在于是否具备一套成熟、可控、可持续演化的记忆机制 这直接影响其能否被长期使用和交付更大决策权 [20] 长期记忆的底层技术架构演进 - **谷歌Titans架构**:明确将Transformer的自注意力机制界定为“短期系统” 并引入独立的神经长期记忆模块来选择性存储和调用跨上下文窗口的关键信息 重新定义了大模型的“大脑结构” [4] - **谷歌HOPE架构**:在Titans基础上进一步升级 提出将模型训练过程也视为一层记忆 并将记忆理解为多时间尺度的连续体 使短期上下文、中期状态和长期经验能按更新频率和稳定性分布在同一套学习系统中 [9] - **字节跳动与清华的MemAgent**:通过强化学习训练模型在超长上下文和连续任务中主动学会信息的“取舍” 形成长期记忆习惯 其目标是让记忆参与判断并影响模型的下一步决策 而非被动堆叠文本或简单检索 [11][16] - **MiniMax的线性注意力架构**:通过架构创新将模型可处理的上下文推至百万乃至数百万token级别 试图以超大容量换取系统简化 减少频繁的外部记忆调度 并在此基础上引入独立的记忆层来管理长期知识与经验 [16][17] - **谷歌的Evo-Memory benchmark与ReMem框架**:将长期记忆放入智能体工作流中考察 评估模型能否在连续任务中提炼经验、复盘策略并实际应用 使长期记忆直接决定智能体的持续进化能力 [11] 行业主要参与者的实践与策略 - **谷歌**:在Gemini产品中推出了基于聊天上下文的“自动记忆”功能 通过学习用户过去的聊天记录来实现主动的个性化回答 [5] 同时在底层技术层面连续提出了Titans和HOPE架构 引领了将长期记忆内化为模型核心组件的方向 [4][9] - **字节跳动**:与清华大学联合提出MemAgent 其长期记忆被拆分进整个智能体工作流 用于保存用户画像、任务状态、阶段性结论甚至失败经验 [12] 核心是训练模型理解哪些信息会影响后续决策 [16] - **MiniMax**:年初开源了首个线性注意力架构大模型 并指出早期智能体的“长期记忆”大多只是外挂RAG工具 严格意义上不算记忆 [11] 其策略是先通过超长上下文窗口解决容量问题 再讨论信息的长期保留 [17] - **DeepSeek**:采取了与上述公司不同的策略 没有在模型侧设计复杂的长期记忆机制 而是将其明确外置 通过RAG、向量库等组件完成 其判断是长期记忆高度依赖具体场景 因此提供一个高质量的推理核心 让开发者自行组合记忆方案更为合适 [19] - **行业普遍现象**:过去一年 从ChatGPT、豆包到讯飞星火X1.5 几乎所有头部AI助手都在通过引入“长期记忆模块”来提升跨会话和跨场景的连续性 [5] 对长上下文与记忆关系的重新认识 - 超长上下文被视为一种“放大的短期记忆” 成本高且无法判断信息价值 并非长期记忆的终点 [9] - 行业探索的重心从“记住文本”转向“记住经验” 长期记忆需要参与推理过程并影响决策行为 而不仅仅是检索答案 [11] - 记忆的核心在于对“过程信息”的保留 以及能否改变模型的行动策略 否则本质上只是工程缓存 [16]