Workflow
KAIROS
icon
搜索文档
AI,为什么也需要睡觉?
创业邦· 2026-04-09 14:17
文章核心观点 - Anthropic在其泄露的代码中为AI系统设计了名为“autoDream”的离线整理机制,类似于人类的睡眠,这挑战了AI行业追求Agent“永不停机”的主流叙事,并暗示智能系统可能普遍需要周期性的“休息”或离线整理来维持效率和准确性,而非一味追求“更多”的算力和持续运行[5][6][22] AI系统面临的工程约束与“上下文腐化” - 大语言模型存在“上下文窗口”的物理上限,当Agent持续运行导致信息堆积超过临界点后,会出现遗忘早期指令、前后矛盾、编造事实的问题,技术社区称之为“上下文腐化”[7] - 许多Agent的粗暴解决方案是将所有历史信息塞进上下文窗口,导致信息越多表现越差[8] 人脑睡眠机制作为类比 - 人脑的睡眠核心任务是将白天快速写入、容量有限的“海马体”(临时存储区)中的信息,搬运并巩固到容量大但写入慢的“新皮层”(长期存储区),这个过程被称为“主动系统巩固”[8] - 睡眠剥夺实验证明,不停机的大脑不会更高效,反而会导致记忆力、注意力乃至基本判断力出问题[8] - 从果蝇到鲸鱼,几乎所有有神经系统的动物都需要睡眠,海豚甚至演化出“半脑睡眠”,表明睡眠是未被自然淘汰的必需功能[8] Anthropic的解决方案:KAIROS与autoDream系统 - Anthropic设计了一个名为KAIROS的后台常驻系统,在用户工作时持续观察和记录,维护每日日志[5] - autoDream是KAIROS的一部分,仅在用户关闭电脑后启动,负责整理白天积累的记忆,清除矛盾,将模糊观察转化为确定事实[5] - 两者构成完整周期,KAIROS醒着,autoDream睡着,为AI设置了一套作息[5] - autoDream以分叉子进程独立启动,与主线程完全隔离,工具权限严格受限,体现了“必须离线”的设计原则[16] 趋同进化:工程约束与生物演化的相似解 - 文章引入“趋同进化”概念,指亲缘关系远的物种因相似环境压力独立演化出相似解决方案,如章鱼与人类都演化出结构相似的相机式眼睛[12][13] - autoDream与人脑睡眠的关系可能属于此类,即在“即时处理能力有限,但历史经验无限膨胀”的相似约束下,两类系统收敛到相似结构[11][16] - 关键共同点是“必须离线”,因为信息摄取与结构整理在同一时间窗口内竞争资源,而非互补[16][17] 记忆处理策略:编辑而非全量存储 - autoDream不会保留所有日志,而是优先处理与现有认知有偏差的部分,如跟昨天说法不一致或更复杂的记忆[18] - 整理后的记忆被存入三层索引:轻量指针层始终加载,主题文件按需调入,完整历史永不直接加载;能从项目代码直接查到的事实不写入记忆[19] - 人脑睡眠也做类似编辑,优先巩固不寻常、引发情绪或与未解决问题相关的信息,而丢弃大量重复、无特征的日常细节,只留下抽象规律[19] AI与人类在记忆确定性上的关键差异 - autoDream产出的记忆被明确标注为“线索”而非“真相”,代理每次使用前都需重新验证,因为它知道自己整理的东西可能不准[19] - 人脑没有这套不确定性标签机制,记忆是从零散碎片临时拼出的,容易出错(如目击证人证词错误),但在需要快速反应的原始环境中,相信记忆比犹豫更有生存优势[19][20] - 对于需要反复做知识型决策的AI,验证成本低,盲目自信反而危险,因此两套系统做出了不同选择[20] 对AI行业发展的启示 - 过去两年,AI行业对“更强智能”的定义普遍指向“更大模型、更长上下文、更快推理、7×24小时不间断运行”的“更多”方向[22] - autoDream的存在暗示了不同命题:聪明的智能体可能是“更懒惰”的,需要停下来整理自己,否则不会变得更聪明,只会更混乱[22] - 人类大脑几亿年演化得出的结论是“智能必须有节律”,清醒感知世界,睡眠理解世界[23] - 当AI公司在解决工程问题时独立走向同样结论,这暗示智能有一些绕不过去的基本开销,一个从不睡觉的AI可能只是还没意识到自己需要睡觉,而非更强的AI[23]
AI,为什么也需要睡觉?
虎嗅APP· 2026-04-07 08:27
文章核心观点 - Anthropic公司在其AI代理系统中设计了一个名为“autoDream”的离线处理机制,该机制模拟了人类睡眠中的记忆整理过程,旨在解决AI持续运行(Agent模式)时因上下文窗口有限而导致的信息过载和性能下降问题 [6][7][34] - 文章通过类比人脑睡眠的神经科学原理,提出在“即时处理能力有限,但历史经验无限膨胀”的共同约束下,AI系统与生物智能可能“趋同进化”出相似的结构性解决方案——即都需要周期性的离线整理来维持效率和智能 [12][20][32] - 这一发现挑战了AI行业追求“更大、更快、永不停机”的主流发展叙事,暗示“更聪明的智能体可能是更懒惰的”,智能的提升可能依赖于有节律的“清醒-整理”周期,而非单纯的算力堆砌和持续运行 [33][34][35] 根据相关目录分别进行总结 一、永不停机的代价 - AI代理持续运行时,其“上下文窗口”存在物理上限,信息不断堆积会导致“上下文腐化”,表现为遗忘早期指令、前后矛盾和编造事实 [9] - 人脑面临类似限制:白天的经历先快速写入容量有限的“海马体”(临时存储),睡眠时再通过“主动系统巩固”过程将有用信息转移到容量更大的“新皮层”(长期存储) [11][12] - 持续的睡眠剥夺实验证明,不停机的大脑会导致记忆力、注意力和判断力衰退;从果蝇到鲸鱼,几乎所有有神经系统的动物都需要睡眠,这证明了周期性离线整理对维持智能功能的必要性 [12][16] 二、两份答卷 - Anthropic的“autoDream”系统与人类睡眠在结构上高度相似:两者都必须在离线状态下运行(autoDream在用户关机后启动,人脑在睡眠时形成特定的脑电节律),因为信息摄取与内部整理在同一时间窗口内竞争资源,无法同时高效进行 [21][22][23] - 两者都执行记忆编辑,而非全量存储:autoDream优先处理与已有认知存在偏差的日志信息;人脑在睡眠中优先巩固不寻常、引发情绪或与待解决问题相关的信息,同时丢弃大量重复的日常细节 [25][27] - 两者在记忆的确定性上做出不同选择:autoDream将其整理出的记忆标记为“线索”而非“真相”,要求AI代理在使用前重新验证;而人脑没有这套不确定性标签机制,这导致记忆容易出错,但也适应了需要快速反应的原始环境 [27][28][29] 三、更聪明的懒惰 - Anthropic设计“睡眠”机制的主要驱动力是工程约束本身(上下文硬上限、长时间运行的噪音累积、在线整理污染主线程),而非刻意模仿神经科学,这更凸显了约束条件对解决方案形态的决定性作用 [30][31][32] - 当前AI行业对“更强智能”的定义普遍指向“更多”(更大模型、更长上下文、更快推理、7×24小时运行),而autoDream的存在提出了一个反向命题:周期性的离线整理可能是智能体变得更聪明的必要条件 [33][34] - 文章结论指出,智能存在绕不过去的基本开销,一个从不“睡觉”的AI并非更强的AI,而可能只是尚未意识到自身局限的AI;有节律的“感知-理解”周期可能是智能系统的普遍特征 [35]
看看 Claude Code 怎么做 Harness,这才是 Agent 工程化的真正难点
Founder Park· 2026-04-01 21:36
Claude Code的架构核心与设计哲学 - 架构核心是一个名为“Harness”的本地运行时外壳,其工程化与可靠性是重点,系统基于Bun运行时构建,包含约1,900个TypeScript文件,超过512,000行代码 [4] - 系统被比喻为用于软件工作的操作系统,围绕模型堆叠了权限管理、记忆层、后台任务、IDE桥接、MCP管道和多代理编排 [6] - 代表了第三代Autonomous Agent的演进方向,即模型控制循环,运行时只是执行器 [7][10] TAOR循环与“笨”架构设计 - 执行引擎采用TAOR循环(Think-Act-Observe-Repeat),其编排器被设计得极其“愚蠢”,仅负责驱动循环、执行工具调用和感知结果,所有推理、决策和停止判断都交给模型 [8] - 核心设计哲学是“运行时越笨,架构越稳定”,将智能下沉到模型,把确定性留给框架,TAOR循环的核心逻辑大约只有50行 [9] - 工具层遵循同样哲学,仅提供四种能力原语(Read、Write、Execute、Connect),通过Bash作为通用适配器,让模型自行组合工具,而非构建大量专项工具 [9] 上下文窗口的主动管理与优化 - 将Context Window视为需要主动管理的稀缺资源,而非越大越好,核心原则是“越干净越好” [11] - 采用三层防御体系应对Context Collapse:1) 在上下文使用量达约50%时自动触发摘要压缩;2) 通过子Agent隔离,让重型任务在独立预算中运行,仅返回摘要;3) 实施精细的Prompt Cache经济学,追踪14种缓存失效向量并设计防破坏机制 [11][12][13] - 支持类似git branch的会话连续性管理,可以checkpoint、rollback或fork探索路径 [14] 记忆系统的索引化与分层设计 - 核心设计原则是“记忆是索引,不是存储”,避免存储可从代码库重新推导的信息 [16] - 记忆系统分为六层,在每次会话启动时按层加载,包括从组织策略到会话上下文的各级信息 [17][20] - 具备主动学习与自我编辑能力,Auto-Memory循环允许Agent学习用户工作模式并写入MEMORY.md,子Agent也可拥有独立、持续积累的专项记忆,系统会重写、去重或剪除矛盾及过期的记忆 [18] 可组合的权限与安全体系 - 权限系统设计为五档信任光谱,从最低信任的“plan”(只读)到最高信任的“bypassPermissions”(跳过所有检查),以适应从高度受限企业环境到个人开发全速运行的不同场景 [21][22] - 实施多层安全校验,bashSecurity.ts包含23项编号的安全检查,防御诸如Zsh equals expansion在内的绕过手段 [21] - 在HTTP传输层实现API调用DRM,通过Bun原生HTTP栈在JS层之下替换并验证加密哈希,确保请求来自真实的Claude Code二进制文件,这是其技术护城河的一部分 [23] 多代理编排:从子代理到代理团队 - 多代理编排采用横向扩展,分为子代理和代理团队两层 [24] - 子代理以独立进程运行,拥有独立的TAOR循环、上下文预算和记忆,任务完成后仅向主代理返回摘要,内置Explore、Plan和General-purpose三种预设类型,支持前台与后台两种执行模式 [25][26][28][29] - 代理团队是完全独立的Claude Code实例通过共享文件系统协调,采用共享任务列表、消息IPC等机制进行对等协作,目前仍是实验性功能 [30][31] 未来方向:KAIROS与常驻代理 - 源码中揭示了未发布功能KAIROS,这是一个常驻后台、持续运行的Always-On Agent [32] - KAIROS具备特征如/dream技能用于夜间记忆蒸馏、每日追加日志、通过GitHub Webhook感知代码库变化,代表产品形态从“召唤式”向“持续主动工作”演进 [33][34][39] - 这显示了产品向“终端操作系统级Agent”发展的野心 [34] 工程决策与商业防御机制 - 实施了Anti-Distillation机制,通过在API请求中注入虚假工具定义等方式,污染试图通过录制API流量来训练竞品模型的数据 [36] - 设计了Undercover Mode(隐身模式),当在非Anthropic内部仓库使用时,会指示模型永不提及内部信息,此模式为无法强制关闭的“单向门”,旨在防止信息泄露 [37][38] - 这些机制反映了公司在保护商业技术优势与应对竞争方面的策略性工程考量 [36][40]
Anthropic被逼急了!亲生龙虾意外曝光,Karpathy:这就是Claude Claw
量子位· 2026-04-01 13:10
Anthropic公司战略与产品方向 - Anthropic公司正在内部全力推进一个代号为“KAIROS”的项目,该项目被定位为Claude的“原生龙虾”版本,旨在开发具有高度自主性的AI代理[3][5][6] - KAIROS项目是对OpenClaw产品的全方位对标,甚至在某些方面做得更极致,其核心是让AI能够主动执行任务,无需用户持续发出指令[13][17] - 该项目因Claude Code源代码泄露事件而被公之于众,此次泄露的源代码共计51万行,KAIROS是其中被发现的“王牌”或“核武器”级项目[5][7][8][9] KAIROS产品功能与特性 - KAIROS具备“主动出击”的能力,其运行机制与OpenClaw的“心跳”机制类似,每隔几秒会收到一个Prompt来检查是否有值得执行的任务,并自主决定是否行动[14] - 该产品24小时在后台运行,能够执行修复代码bug、回复消息、更新文件、执行任务等一系列操作,功能覆盖Claude Code的能力,但无需用户主动发起[15][16][17] - KAIROS额外整合了推送通知、文件投递和PR(Pull Request)订阅等至少三个专属技能,这些功能以往需要结合OpenClaw和即时通讯软件才能实现[18][34] - 产品具备强大的个性化与持续学习能力,每天会撰写详细的日报,记录其观察、判断和行动,并以追加方式形成跨会话的持续记忆,使用时间越长,其表现越好[20] - 针对个性化带来的上下文长度指数级膨胀问题(例如一句问候可能消耗十几万token),KAIROS设计了名为“autoDream”的流程,通过模拟“睡觉”来整合和重新整理白天的记忆,以优化上下文管理[22][23][24] 行业趋势与竞争格局 - AI技术栈正经历新的演进,继Chat(聊天)和Code(代码)之后,“Claw”(爪,指高度自主的AI代理)被认为是AI的下一个进化方向和一个全新的技术层级[33] - 行业趋势显示AI的自主权与主动性正在不断增强,从用户驱动(Chat)到用户指导(Code),最终向AI自主执行(Claw)发展,预示着“后提示词”时代的到来[33][35] - Anthropic的KAIROS与开源的OpenClaw形成了直接竞争关系,值得注意的是,目前OpenClaw项目所依赖的“天选API”仍然是Anthropic自家的Claude Opus 4.6模型[27] - 开源项目OpenClaw的命名曾引发争议,其最初名称“Clawdbot”因与“Claude”相似而被Anthropic要求更改,最终定名为OpenClaw[35] 产品挑战与用户反馈 - 高额的token消耗是此类高度自主AI代理面临的主要挑战之一,现有产品的上下文管理已对用户钱包构成压力,KAIROS若想正式推出,优化token消耗是当务之急[29][31][32] - 有用户体验指出,Anthropic的用量设计存在问题,例如Claude Code执行任务时可能因耗尽周额度而报错,将Pro用户当作免费用户对待[29][30] - 市场对Anthropic即将推出的官方“龙虾”产品抱有高度期待,认为公司利用自身模型优势,无需逆向工程,可能做出架构更极致的产品[27]
Eviden-built JUPITER Supercomputer Hits Exascale Milestone According to the TOP500, a First in Europe
Globenewswire· 2025-11-18 05:19
核心观点 - Eviden公司建造的58套系统入选全球高性能计算机TOP500和绿色计算Green500榜单 其JUPITER系统作为欧洲首个突破百亿亿次计算壁垒的超级计算机 位列全球第四、欧洲第一 同时在能效方面位居所有E级超算之首 公司在Green500榜单上连续四期占据前三名 彰显其在高性能计算领域领先的性能与能效优势 [1][2][3][4] TOP500榜单表现 - Eviden共有58套系统入选TOP500榜单 其中JUPITER系统通过其Booster模块 保持全球第四大、欧洲第一大超级计算机的地位 [1][2] - JUPITER系统是欧洲首个正式突破象征性E级计算壁垒的超级计算机 计算性能达到每秒百亿亿次(1 ExaFlop)[2][5] Green500榜单表现 - Eviden连续四期主导Green500榜单 包揽前三名 分别是KAIROS系统(73 GFlops/Watt)、ROMEO系统(70 GFlops/Watt)和Levante GPU扩展系统(69 GFlops/Watt)[3][8] - JUPITER系统的Booster模块被Green500认定为所有现有E级超算中能效最高者 其能效比为63 GigaFlops每瓦 [6] JUPITER系统技术成就 - JUPITER系统由于利希超级计算中心与EuroHPC联合企业合作开发 是欧洲首台达到E级性能的超级计算机 [5] - 该系统已支持超过100个科研项目 实现了包括模拟50量子位的通用量子计算机以及以1公里分辨率模拟整个地球系统等里程碑 [5] - JUPITER系统以创纪录的时间建成并采用可持续设计 设定了全球效率标准 并构成了JUPITER AI工厂的核心 [7] 公司技术与市场地位 - Eviden是Atos集团旗下的硬件和软件产品品牌 年收入约10亿欧元 在36个国家运营 拥有4,500多名顶尖人才和2,100多项专利 [10][11] - 公司业务涵盖先进计算、网络安全产品、关键任务系统和视觉AI四个单元 [10] - Atos集团是全球数字化转型领导者 年收入约100亿欧元 拥有67,000名员工 在61个国家运营 是欧洲网络安全、云和高性能计算领域的领导者 [12]