Workflow
长期记忆
icon
搜索文档
Clawdbot爆红,会抢走谁的饭碗?
创业邦· 2026-02-01 11:44
文章核心观点 - 一款由个人开发者独立完成的AI代理工具OpenClaw(原名Clawdbot)在2026年初现象级爆红,展示了AI时代个体生产力的巨大潜力,同时也暴露了安全、合规等方面的挑战,并可能重构应用层生态与用户交互方式[5][10][24] 产品概述与市场反响 - 产品是一款能运行在用户本地设备上的个人AI代理工具,可通过WhatsApp、Telegram等聊天应用交互,具备管理邮箱、日程、自动化任务、浏览网页、执行脚本等功能,像一个“数字管家”[5] - 产品关注度指数级增长:GitHub星标曲线在数日内垂直飙升;全球二手市场上Mac mini等小型电脑设备因部署需求激增被集中抢购;技术社区迅速进入测评、复刻与二次开发[5] - 该产品并非出自科技巨头或独角兽企业,而是由前iOS工程师彼得·斯坦伯格在家中独立完成[5] - 因商标争议,产品先后更名为Moltbot和OpenClaw,其开源属性(Open)和不忘初心的理念(Claw)得到强调[6] - 科技圈集体兴奋:获得前特斯拉AI总监Andrej Karpathy等顶尖人物公开点赞;Google AI Studio产品负责人为体验产品专门购买Mac mini;腾讯云、阿里云等大厂火速上线一键部署服务[18][19] 技术架构与核心创新 - 技术架构包含三个维度:1)交互与控制层:作为本地网关,实现无新应用的自然交互;2)核心处理层:调用主流大模型推理,配合本地服务和向量数据库实现长期记忆;3)执行与扩展层:通过技能插件系统操作浏览器、日历或执行系统级API脚本[13] - 核心创新在于本地网关形态,让手机远程操控电脑成为可能,是一个融合了记忆、规划与执行能力的24小时在线个人助理[14] - Mac mini被抢购一空,因其是支持“24小时待命、低成本且本地安全”部署需求的理想硬件[14] 爆红原因分析 - 解决了“跨端操控”痛点:将AI从桌面软件拓展为聊天应用等随身入口,让用户可随时下达指令,解放了用户空间与时间[21] - 踩中了应用落地节点:当大模型底座能力相对稳定,行业关注点从“模型多强”转向“应用怎么落地”时,它提供了一个可感知的实用标杆[21] - 开源属性激发社区狂欢:最初在GitHub发酵,短短几天星标数突破10万,极大降低了二次开发门槛[21] - 开发者彼得·斯坦伯格的故事增添了理想主义色彩:他曾在10年间将个人项目PSPDFKit发展为服务Dropbox、IBM等巨头的企业,2021年套现1亿欧元财务自由后退休,随后利用AI工具在十天内生成了Clawdbot,几乎未手写代码,展示了AI时代个体生产力的天花板已被掀开[22] 对行业生态的潜在影响 - 可能挤压现有“应用层”结构:大模型基座厂商受影响较小,真正受影响的是应用层;随着类似Agent普及,许多功能单一的应用程序可能逐渐被简化、淘汰,退化为背后的API接口,重构用户与数字世界的中介[24] - 可能改变开发者生态与创业模式:开源产品让开发者能把Code Agent变成家用Agent,可能冲击通用型Agent的市场份额;同时削弱传统软件在用户交互层的门槛,让个人开发者能迅速覆盖多场景,但传统应用需重新设计以适配“语义交互+自动执行”的新方式[25] 暴露的安全风险 - 权限与架构风险:拥有与用户同等的文件系统访问权,因指令不精确或语义理解偏差,可能导致误删文件、覆盖数据等不可逆操作[26] - 配置与数据泄露风险:API密钥等敏感凭证存储在本地缺乏隔离,设备一旦遭入侵,账户、资产与隐私数据存在被批量窃取风险[26] - 提示词注入攻击:攻击者可能诱导AI执行未授权操作,如读取用户邮件并发送给攻击者,造成现实财产损失,已有实际案例[26] - 项目初衷仅为个人在信任环境下的工具,未预见公开场景的广泛应用,开发者个人难以应对骤然涌现的数百个安全问题,目前已着手筹备团队并转向社区共建模式以完善安全性[30] 预示的未来趋势 - 强化“个人数据中心”概念:用户数据、偏好和操作逻辑基于本地设备,推动数字资产沉淀于本地,由高度可信的Agent协助管理,使其成为个人数字生活的核心“固定资产”[30] - 增加“长期记忆”在AI产品中的价值:通过本地化存储与学习,实现比云端会话记忆更全面、连贯的场景覆盖,为个性化服务指明新方向[31] - 释放个体生产力:在Agent和开源生态加持下,未来由个人或小团队独立开发的、能够解决具体问题的高质量产品会越来越多[31]
从 Prompt 到 Agent:AI 思维跃迁的核心逻辑
36氪· 2026-01-19 10:30
核心观点 - 在AI训练领域,Prompt思维与Agent思维存在本质差异,前者类似“文学创作”,后者类似“工程管理”,从前者向后者的转型是提升AI应用效能的关键[1] - 构建“数字员工集群”的Agent架构,通过结构化设计、逻辑规划、长期记忆和工具调用,能够将复杂任务拆解为可执行的微小步骤,实现业务闭环,其产出比依赖长提示词(Prompt)更可靠[1][3][8] 思维模式差异 - Prompt思维如同“面试官”,向模型提出一堆要求后等待完美答案,若结果不佳则倾向于增加更多限定词和语气词,易陷入“低水平勤奋”陷阱[2] - Agent思维要求成为“SOP(标准作业程序)的制定者”或“工程管理者”,核心是设计工作流而不仅是单点指令[2][3] - 示例:撰写行业分析报告时,Prompt思维是下达一个笼统的“写一篇5000字深度报告”指令,而Agent思维会将其拆解为搜索新闻、筛选素材、列大纲、撰写校对等具体步骤[6] Agent架构的核心要素 - **逻辑规划 (Planning)**: Agent接收到指令后,第一步是“思考”而非直接执行,会生成一个多步推理的任务清单,本质是进行“压力分担”[4][5] - 采用ReAct(Reasoning and Acting)框架,通过“思考-行动”循环,将上一步输出作为下一步输入,从而将每个环节的误差控制在最小范围[5][8] - **长期记忆 (Memory)**: 解决AI“鱼的记忆”问题,通过RAG(检索增强生成)技术引入向量数据库,使Agent能记住历史交互细节,如老板对周报用词的偏好[9][10] - 长期记忆存储公司模板、绩效目标等,短期记忆记录本周关键发言和需求变动[19] - **工具调用 (Tool Use)**: 这是Agent与聊天机器人的关键分水岭,赋予AI“管理员权限”执行外部操作,例如通过API抓取数据、调用绘图工具等[11][21] - 工具调用流程示例:数据接入→智能意图识别→绘图工具调用→报告合成输出,最终生成图文并茂的自动化周报[11][12][13][14][15][16][17][18][20][21] 实战应用与效果 - 以“全自动写周报”为例,Agent会先规划步骤:提取业绩关键数据、分析延期风险、匹配下周规划[7] - 在数据获取上,Agent通过飞书API直接抓取表格中的行列信息(如项目名、进度百分比),并将其转化为结构化数据(JSON格式)[11][12][13] - 在数据分析与呈现上,大模型(LLM)会判断数据价值并生成图表指令,Agent随后调用可视化工具库(如Matplotlib)生成高清图表[14][15][16][17] - 效果对比:Agent能基于记忆(如老板不喜欢“基本完成”而要求具体百分比)产出更符合职场要求的周报,具备“懂规矩”的核心竞争力[10] 实施避坑指南 - 警惕“过度工程化”:并非所有场景都适合Agent,简单的翻译任务若设计复杂步骤会导致速度慢且Token成本翻十倍,能用一条Prompt解决就不必用Agent[23] - 注意幻觉的递归风险:Agent步骤越多,误差累积风险越大,第一步规划错误会导致后续步步皆错,必须在关键节点设置“人工确认点”或“逻辑门控”[23] - 不要迷信模型的“自我评价”:让模型检查自身错误往往无效,有效的自省需要配合外部工具(如Linter、代码解释器)进行客观验证[23] 行业影响与趋势 - AI能力的提升正导致职场分化:一部分人仍在苦练“咒语”般的Prompt,其天花板受限于模型原生能力;另一部分人则开始搭建自己的“数字员工集群”,转型为“AI架构师”[22] - 未来的高阶玩家关注点在于“如何管理AI的执行过程”而非“如何乞求AI的结果”,Agent思维决定了业务落地的底座[22]
狂奔AGI,Claude年终封王,自主编码近5小时震惊全网
36氪· 2025-12-22 10:02
行业核心观点 - AI编码智能体的任务处理时长正经历指数级增长,且增速持续提升,能力正从“分钟级”迈向“小时级”,这被视为衡量AI进步的关键指标 [7][9] - 长期记忆被普遍认为是实现通用人工智能(AGI)的最后关键难题,谁能率先破解记忆问题,谁就将在AGI竞赛中占据决定性优势 [30][31][32] - 综合当前发展态势,AGI已不再是遥不可及的科幻梦想,可能近在咫尺,其进展更平实务实但震撼真实 [42][46] AI编码智能体性能突破 - Anthropic的Claude Opus 4.5模型在“50%任务完成时间跨度”指标上达到约4小时49分钟,是迄今为止公布的最长记录 [14] - Claude Opus 4.5已能够持续自主编码长达5小时 [2] - 在相同指标下,OpenAI的GPT-5.1-Codex-Max模型能完成长达2小时53分钟的软件工程任务,能力较其前代o1提升4倍 [14] - Opus 4.5在50%与80%时间跨度(后者为27分钟)之间的差距反映出其逻辑成功率曲线更平缓,在耗时较长任务上具有差异化优势 [17][20] 智能体能力演进预测 - 预测到2026年4月,首批AI智能体将能独立完成一个完整的人类工作日 [13] - 预测到2026年底,AI能完成半周的任务量;到2027年底,能完成2个月的任务量;到2028年底,能完成人类好几个月的工作量 [13] - 预测到2030年,AI能承担一些小型企业或组织的大部分管理工作 [13] - AI智能体能力提升的四大原因包括:推理更强、工具更熟、自纠错更稳、收益非递减 [22] 记忆:AGI的关键挑战与未来突破 - 当前大模型缺乏长期记忆,如同“下班就失忆”的新人,会话结束后几乎不记得所做内容 [25] - 当前智能体主要依靠“主动记忆”机制(如强检索工具)和总结压缩塞进上下文,最优秀的RAG系统准确率也只有约90% [25][33] - 没有长期记忆,AI无法像人一样“越用越聪明”,无法从错误中学习并积累常识和智慧 [27] - 纽约通用智能公司创始人预期,未来12个月AI行业会在“被动记忆系统”上取得显著进展 [35] - 未来12个月内,“记忆+学习”领域可能会出现突破性进展,记忆系统将被确认为通向AGI的最后一步 [37][40] - 到2024年底,“上下文腐烂”问题预计将被攻克,方式包括启用遗忘机制、设计长期对话清理系统及更先进的上下文检索技术 [38] - 2026年春天可能出现由“新一代多模态大模型”与“注意力机制之外的记忆系统”结合带来的突破 [39] 行业影响与生产力变革 - 随着机器智能成为首要生产要素,正在涌现出新型组织,依靠AI的微型团队能产出超越过去数十人甚至上百人团队的工作成果,在某些软件领域生产力增长令人震惊 [44] - 用户将不再通过文件树导航信息,而是由AI智能体直接检索和访问所需数据,像Replit和Lovable这样的代码生成平台已先行一步 [38] - 在消费者端,更强大的记忆系统可能导致“对话开始前有点卡”,但背后是庞大的记忆系统在运行,AI将变得越来越“懂你” [37]
「Memory as a Context」是否将重新定义 Transformer 的 「记忆模式」?
机器之心· 2025-12-14 09:30
要事解读① 「Memory as a Context」是否将重新定义 Transformer 的「记忆模式」 - 谷歌于2024年底提出Titans架构,其核心是设计了一种神经长期记忆模块,能够在测试时根据新输入数据进行在线学习和优化,该模块以多层感知器的形式运行,其突破在于能主动学习识别并保留输入数据中各个标记间的重要关系和概念主题,而非被动存储数据[7] - Titans提出了三种将神经记忆模块与Transformer注意力机制结合的架构变体,分别代表不同的记忆集成思路:「Memory as a Context」、「Memory as a Gate」和「Memory as a Layer」[7] - 技术社区对Titans和「Memory as a Context」思路的探讨升温,有观点认为其可能重新定义Transformer的记忆模式,但2025年10月有研究通过复现实验指出,受限于分块机制,Titans并不总能超越现有基准模型,且记忆组件与模型主干之间的适配优化仍存在挑战[8] - 尽管存在挑战,同一研究也指出,与仅使用注意力的模型相比,Titans的神经记忆组件能够持续提升模型性能[8] - 谷歌团队为Titans等系列建模方法提出了统一的理论框架「MIRAS」,该框架将各种架构视为由「联想记忆架构」、「注意力偏差」、「记忆保持门控」、「记忆学习算法」四个组件抽象组合而成的问题解决方法[7] Transformer的记忆模式如何转变为自适应的Test-Time Learning系统 - 业界在共识到注意力机制局限的背景下,持续探索改进LLM记忆力的方案,以使模型获得持续学习能力,适应动态变化的部署环境,有思潮认为在LLM语境下,持续学习可能是一个「记忆管理」问题[9] - 华为研究者在2025年8月的综述中指出,LLM的记忆机制正从被动的静态缓存转变为具有自适应能力的测试时学习系统,这种系统指模型在推理阶段无需重新训练或微调,即可通过动态调整记忆策略,实时适配任务需求与环境变化,实现「边用边学」[9] - 该综述梳理了过去7年对LLM四项核心记忆操作(读取、写入、遗忘、容量管理)的技术演进,对比了静态缓存机制的局限与近期记忆增强型Transformer的改进方法[10] - 在「读取」操作上,记忆增强型Transformer实现了动态调整检索范围、内容敏感的模式补全以及测试时优化检索策略,代表模型如CDMem、ARMT(支持5000万token O(1)读取)和ABC[10] - 在「写入」操作上,记忆增强型Transformer实现了选择性写入(如仅存储高惊喜度信息)、实时决策每层写入比例以及无梯度更新的超线性容量增长,代表模型如Titans(使用KL惊喜驱动)、LM2和ATLAS[10] - 在「遗忘」操作上,记忆增强型Transformer实现了价值优先的保留策略、测试时调整衰减因子以及主动清理机制,代表模型如MemLong、RA-DT和ARMT[10] - 在「容量管理」操作上,记忆增强型Transformer实现了弹性扩容(如支持超过16万令牌的连贯生成)、语义感知压缩以及测试时资源调度,代表模型如M+、zip2zip和Transformer-Squared[10] 2026将近,世界模型到底更「世界」了吗 - 业界在探索世界模型的发展方向,存在不同路径的对比,例如Sora式的像素级模拟被认为更可靠,而V-JEPA式的抽象表征预测则被认为更高效[2] - 关于世界模型的输出形式存在讨论,其输出的「世界」应是静态资产、实时帧序列,还是用于驱动预测与控制的潜在状态[2] - 大型科技公司布局世界模型,其战略意图存在不同解读:是在补充现有的「数据引擎」,还是在搭建全新的「时空认知」框架[2] 基于100万亿Token的深度分析:OpenRouter联合a16z发布《State of AI》报告 - 中国开源模型的全球流量份额在一年内从1.2%大幅提升至近30%[2] - 「智能体式推理」已经取代「对话生成」,成为消耗超过50%流量的主流使用范式[2] - 参数量在15B至70B之间的「中型模型」击败了更小和更大的模型,成为在效能平衡上的最优解[2] - AI应用的发展呈现两极分化趋势,正在向「高成本生产力」工具和「低成本娱乐」应用两个极端集中[2]
记忆外挂来了!赋能AI开源记忆系统EverMemOS发布
南方都市报· 2025-11-18 18:46
产品发布与定位 - 公司创新打造的旗舰产品EverMemOS近日发布,并在GitHub开放开源版供开发者与AI团队部署试用,云服务版本预计年内发布,为企业用户提供更完善技术支持、数据持久化与可扩展体验 [1] - 该产品是一款面向人工智能智能体的世界级长期记忆操作系统 [1] - 在主流长期记忆评测集LoCoMo和LongMemEval-S上,EverMemOS分别取得92.3%和82%得分,均显著超越此前工作,成为新的SOTA(State-of-the-Art)水平 [1][4] 行业背景与核心理念 - 受限于大语言模型固定的上下文窗口,AI在长时程任务中会频繁"失忆",导致记忆断裂、事实矛盾,使深度个性化和知识一致性成为空谈 [3] - 无论Claude还是ChatGPT,已将长期记忆作为战略级功能推出,标志着记忆正成为未来AI应用核心竞争力与分水岭 [3] - 公司团队从类脑设计理念出发,借鉴感官信号编码、海马体索引到皮层长期存储的机制,让AI能像人类一样思考、记忆与成长 [3] - 当今AI建立在"空间结构"范式之上,是瞬时的、静态的,而人类大脑的"时间结构"范式是连续的、动态的,"长期记忆"是连接时间与智能的关键环节 [4] 产品技术架构与创新 - 产品受人脑记忆机制启发,创新设计四层结构:代理层类比"前额叶皮层"、记忆层对应"大脑皮层网络"、索引层类似"海马体"、接口层作为AI的"感官接口" [6] - 首要创新在于解决了现有方法"只管找,不管用"的核心痛点,通过独特推理与融合机制,让记忆能够实时、主动地影响模型的思考和回应 [7] - 将连续语义块提取为情景记忆单元,再动态组织成结构化记忆,解决纯文本相似度检索难以捕捉隐性上下文的难题 [7] - 设计业界首个可拓展的模块化记忆框架,能灵活支持多种记忆类型,智能提供最优的记忆组织和应用策略 [7] 应用场景与进展 - 该产品是行业首个真正能同时支持1对1对话与复杂多人协作两大场景的记忆系统 [4] - 产品已率先被AI Native产品Tanka采用 [4]
张小珺对话OpenAI姚顺雨:生成新世界的系统
Founder Park· 2025-09-15 13:59
文章核心观点 - 语言是人类实现泛化的核心工具,是构建通用人工智能系统的最本质要素 [4][7][77] - AI Agent发展已进入下半场,重点从模型训练转向任务定义和环境设计 [5][62][63] - 创业公司最大机会在于设计新型人机交互界面,而非重复ChatGPT模式 [110][112][113] - 未来AI生态将呈现既单极又多元格局,由不同超级应用共同定义智能边界 [5][146][154] 姚顺雨背景与研究历程 - 清华姚班本科、普林斯顿博士,2019-2024年在普林斯顿攻读博士学位 [13] - 2016年接触多模态嵌入技术后转向深度学习,2018年系统性开始深度学习研究 [14][15] - 博士期间从计算机视觉转向语言模型研究,因认为语言是实现AGI的更核心方向 [15] - 专注Language Agent研究6年,2024年加入OpenAI [4][19] AI Agent技术演进 - 技术发展三阶段:符号主义AI(规则系统)→深度强化学习(环境特定)→大语言模型(泛化推理)[40][41][43] - 语言智能体与传统Agent本质区别在于具备推理能力从而实现泛化 [36][38][39] - ReAct框架成为最通用方案,实现推理与行动的协同 [26][50] - 代码环境是数字智能体最重要的"手",提供天然机器表达形式 [53][54][55] 任务与环境设计 - 当前瓶颈从方法创新转向任务定义和环境设计 [62][63] - 优秀任务需具备:结果导向奖励机制、基于规则的白盒评估、可解释性 [64][66][71] - 任务分类标准:可靠性需求型(如客服)vs创造力需求型(如证明猜想)[70][72] - 评估指标需区分Pass@k(多次尝试成功率)和Pass^k(每次成功率)[74] 产业发展与创业机会 - 模型能力溢出为创业公司创造机会,关键在于设计新型交互界面 [110][112] - 成功案例包括Cursor(编程副驾驶)、Manus(通用交互)、Perplexity(研究型搜索)[117][127][129] - 数据飞轮形成需三个条件:自主训练能力、清晰奖励信号、数据好坏分离 [123][124] - 成本不是核心瓶颈,真正关键在于找到价值超过成本的应用场景 [139][141] 未来生态展望 - OpenAI五级能力划分:聊天机器人→推理者→智能体→创新者→组织者 [44][45] - 未来12-24个月趋势:Chatbot系统自然演进为Agent系统,新型Copilot应用涌现 [165][166] - 记忆系统(Memory)将成为核心竞争壁垒,特别是上下文管理能力 [51][158][159] - 最终生态将由多个超级应用共同定义,呈现中心化与分布式并存格局 [146][152][154]