Workflow
Pinecone
icon
搜索文档
寻找桌面Agent红利下的卖铲人
华尔街见闻· 2026-01-31 17:17
文章核心观点 - 开源桌面智能体OpenClaw的爆火,标志着AI“替人打工”接近现实,并可能成为桌面智能体的“ChatGPT时刻”,引发了从软件、模型到硬件的全产业链连锁反应 [1][8] - 行业竞争格局正从“千模大战”转向“千端大战”,桌面智能体作为凌驾于App之上的“影子管家”,其发展将推动软件、模型、硬件及云服务等多个层面的变革与机遇 [8][20] - 在桌面智能体生态中,国产大模型厂商(如MiniMax、Kimi)和云服务商(如阿里云、腾讯云)已成为关键的“卖铲人”,率先受益;同时,系统厂商(如苹果、微软、华为)和硬件厂商(如华强北主机、边缘计算盒子)也正积极布局,一场软硬结合的桌面控制权争夺战即将打响 [4][7][10][18][20] 软件层:桌面智能体应用爆发与竞争 - OpenClaw是一款能深度访问用户电脑系统、文件和应用,并具有长期记忆上下文的桌面智能体,可自主完成比价、邮件处理、预订航班等复杂或日常任务,被形容为“24小时待命贾维斯” [1] - OpenClaw的爆火带动了桌面智能体赛道的热度,Coze Workflow、阶跃AI桌面伙伴等产品纷纷上线,行业进入“千端大战”阶段 [8] - 桌面智能体的运行模式是“自主循环”,为完成复杂任务会进行多次自我对话和代码尝试,导致单次任务消耗的Token量极大,远超传统聊天机器人 [5][6] - 第三方开源智能体预计将如雨后春笋般爆发,但面临系统厂商(如苹果、微软、华为)将智能体能力内化至操作系统底层的竞争,其在中国手机和PC市场的渗透空间可能因此被收窄 [8][10][11][13][15] 模型层:底层大模型成为核心“卖铲人” - 桌面智能体的基础能力由底层大模型决定,其高度依赖超长上下文和高性价比的推理两大核心能力 [6][8] - 在OpenClaw作者推荐下,擅长长文本与逻辑推理的国产模型MiniMax M2.1被成功带火,Kimi等模型也被提及为潜在选项 [7] - 国内外大模型公司(如OpenAI、DeepSeek、Kimi)均已将智能体作为发力方向,通过将智能体能力“内化”进模型参与竞争 [8] - 智能体的稳定运行还需LangChain等提示词编排工具,以及Pinecone等向量数据库作为支撑记忆的“外挂海马体” [7] 硬件与部署层:新的市场机会涌现 - OpenClaw设计为本地运行,其爆火使Mac Mini因系统便利性和ARM架构功耗优势而需求激增,被社区视为“理财产品” [4][17] - 出于隐私安全和隔离考虑,能一键部署的云服务器成为运行OpenClaw的“天选”方案,阿里云、腾讯云、京东云等国内云厂商火速上线了专属服务或应用模板 [4] - 硬件厂商迅速跟进,华强北已推出预装桌面智能体的AI小主机,通过局域网连接用户主力机,提供7x24小时服务 [18][19] - 边缘计算厂商推出“云电脑盒子”等瘦客户端方案,以每月几十元的低成本提供云端算力,为轻量级智能体用户提供了更具性价比的选择 [20] - 未来硬件层将出现一批专门为AI智能体设计的、更具性价比的国产“大内存Mini主机”或“云AI盒子” [20] 云服务与中间件:生态中的隐形支柱 - 云服务器因支持7*24小时运行、部署迅速且成本友好,成为运行OpenClaw类智能体的理想选择 [4][5] - 当智能体需要接入模型API时,会产生高昂的Token消耗成本,有开发者体验OpenClaw半小时就用光了原本预计使用十几天、上百万的Token [5] - 为确保拥有高权限的智能体安全运行,Docker容器和各类安全沙箱技术成为刚需,这些中间件是支撑智能体稳定运行的“隐形骨架” [7]
2026,进入AI记忆元年
36氪· 2026-01-27 18:28
大模型技术发展现状 - 自2023年年中起,SOTA模型的迭代周期被快速压缩至35天,曾经的SOTA模型在5个月内就可能跌出前五,7个月后可能跌出前十 [1] - 尽管模型持续迭代,但像ChatGPT、DeepSeek那样令人眼前一亮的新产品越来越少,技术进步进入小修小补的瓶颈期 [1] AI记忆成为行业新焦点 - 2023年,以Milvus、Pinecone、faiss为代表的向量数据库产品涌现 [2] - 2024至2025年期间,以Letta (MemGPT)、Mem0、MemU、MemOS为代表的各种AI记忆框架大量出现 [2] - 模型厂商如Claude和谷歌相继宣布为其模型增加记忆能力,引发行业关注 [2] - 在代码补全、情感陪伴、智能客服等场景,“模型+记忆”的商业模式正催生越来越多通过PMF验证的细分爆款 [2] - 红熊AI等主打AI记忆科学解决方案的厂商成为新的行业焦点 [2] 对AI记忆的行业误解一:记忆等于RAG加长上下文 - 在2023-2024年AI基础设施爆发期,RAG技术一度成为AI记忆的代名词 [4] - RAG通过外置向量数据库,使大模型能掌握训练阶段未更新的信息和私有知识 [4] - 传统RAG方案在落地中暴露出短板,例如在法律场景中,语义相似但适用性不同的条款会被混淆,且无法遵循法律效力优先级 [6] - 在客服场景中,RAG方案会为重复问题花费不必要的检索成本,且无法实现跨会话记忆 [7] - 基于语义检索的RAG方案只能解决不到60%的真实需求 [8] - RAG作为一种被动检索工具,解决了“不知道”的问题,但无法解决“记不住”的核心矛盾,且数据更新通常以周为单位,无法实时写入 [8] - RAG存在跨会话记忆丢失、信息无法动态沉淀、不会主动关联经验等能力盲区 [9] 红熊AI的记忆科学体系 - 真正的AI记忆需复刻人脑工作逻辑:短期记得住,长期有常识,判断有感情 [10] - 人脑处理信息经过编码、存储、提取三大环节,是一套动态、实时、可写入可检索的智能系统 [10] - 红熊AI据此打造了完整的记忆科学体系,将AI记忆拆解为显性记忆、隐性记忆、联想记忆及动态进化记忆,各层通过智能算法动态流转 [10] - 该体系为记忆加入了情感加权、智能遗忘、跨智能体协同等能力,从底层重构了AI记忆逻辑,解决了数据量爆炸带来的成本与上下文过长问题 [10] 对AI记忆的行业误解二:事实检索重于一切 - 红熊AI团队曾将准确率作为记忆系统的唯一KPI,这在金融风控、技术运维等事实优先的场景中运行顺畅 [11] - 但在情感咨询等场景中,用户需要的是被理解、被安抚、被肯定,而非精准的事实答案 [13] - 这促使红熊AI攻克了记忆系统的情感难题,通过给每段记忆贴上情感权重标签,从多维度量化用户情绪 [14] - 情感权重会决定记忆的优先级,并影响AI的回应逻辑,例如在用户有负面评价记忆时,AI需先安抚再同步事实信息 [14] 对AI记忆的行业误解三:Agent的未来是标准化 - 记忆与工具的加持降低了Agent开发门槛,可针对特殊场景提供解决方案,从而瓦解传统SaaS的场景壁垒 [15] - 但这也伴随着非标碎片化挑战,没有一套标准化记忆系统能适配所有行业,甚至同一行业的不同品类都需差异化定制 [15] - 在情商落地方面,不同行业的情感权重占比差异巨大:售后客服、教育场景占40%-50%,医疗、金融风控场景占10%-20%,通用陪伴场景占20%-30% [16] - 红熊AI必须在做好标准化能力的基础上,接受解决方案环节的非标准化 [17] 红熊AI的共性能力建设与非标解决方案 - 在记忆熊v0.2.0中,红熊AI强化了集群化Agent记忆协同能力,通过统一记忆中枢实现多Agent间的最小化、按需式记忆共享 [17] - 支持主管模式和协作模式,适配不同场景的智能体组织形态 [17] - 针对多模态数据处理,推出三大解析引擎实现100%版面还原,支持PPTX高保真解析、音视频以文搜音 [17] - 通过向量加图谱双驱动检索,将多跳推理准确率提升至92.5% [17] - 非标环节集中于行业词汇库积累、知识图谱打造等解决方案,首次拓展新品类客户需花费数周进行前期共建与知识梳理 [19] - 用户数据处理消耗整体约25%的成本 [19] - 需要积累不同行业知识,例如医疗行业的负面词是“疼痛、过敏、并发症”,金融行业核心词是“平仓、建仓、净值” [21] - 这种前期非标准化和缓慢的开拓过程,会成为企业的先发优势和核心壁垒 [21] 行业趋势展望 - 进入2026年,大模型的叙事正从以Scaling Law为核心的参数竞赛,切换至以记忆为主导的下半场 [22] - 记忆能力已成为拉开不同模型和Agent表现差异的核心 [22] - 参与玩家包括上游的模型厂商、框架玩家,以及红熊AI这样的专业解决方案商 [22] - 这一过程不如“百模大战”那样高举高打,也不会快速决出阶段性赢家 [22]