Workflow
记忆熊v0.2.0
icon
搜索文档
2026,进入AI记忆元年
36氪· 2026-01-27 18:28
大模型技术发展现状 - 自2023年年中起,SOTA模型的迭代周期被快速压缩至35天,曾经的SOTA模型在5个月内就可能跌出前五,7个月后可能跌出前十 [1] - 尽管模型持续迭代,但像ChatGPT、DeepSeek那样令人眼前一亮的新产品越来越少,技术进步进入小修小补的瓶颈期 [1] AI记忆成为行业新焦点 - 2023年,以Milvus、Pinecone、faiss为代表的向量数据库产品涌现 [2] - 2024至2025年期间,以Letta (MemGPT)、Mem0、MemU、MemOS为代表的各种AI记忆框架大量出现 [2] - 模型厂商如Claude和谷歌相继宣布为其模型增加记忆能力,引发行业关注 [2] - 在代码补全、情感陪伴、智能客服等场景,“模型+记忆”的商业模式正催生越来越多通过PMF验证的细分爆款 [2] - 红熊AI等主打AI记忆科学解决方案的厂商成为新的行业焦点 [2] 对AI记忆的行业误解一:记忆等于RAG加长上下文 - 在2023-2024年AI基础设施爆发期,RAG技术一度成为AI记忆的代名词 [4] - RAG通过外置向量数据库,使大模型能掌握训练阶段未更新的信息和私有知识 [4] - 传统RAG方案在落地中暴露出短板,例如在法律场景中,语义相似但适用性不同的条款会被混淆,且无法遵循法律效力优先级 [6] - 在客服场景中,RAG方案会为重复问题花费不必要的检索成本,且无法实现跨会话记忆 [7] - 基于语义检索的RAG方案只能解决不到60%的真实需求 [8] - RAG作为一种被动检索工具,解决了“不知道”的问题,但无法解决“记不住”的核心矛盾,且数据更新通常以周为单位,无法实时写入 [8] - RAG存在跨会话记忆丢失、信息无法动态沉淀、不会主动关联经验等能力盲区 [9] 红熊AI的记忆科学体系 - 真正的AI记忆需复刻人脑工作逻辑:短期记得住,长期有常识,判断有感情 [10] - 人脑处理信息经过编码、存储、提取三大环节,是一套动态、实时、可写入可检索的智能系统 [10] - 红熊AI据此打造了完整的记忆科学体系,将AI记忆拆解为显性记忆、隐性记忆、联想记忆及动态进化记忆,各层通过智能算法动态流转 [10] - 该体系为记忆加入了情感加权、智能遗忘、跨智能体协同等能力,从底层重构了AI记忆逻辑,解决了数据量爆炸带来的成本与上下文过长问题 [10] 对AI记忆的行业误解二:事实检索重于一切 - 红熊AI团队曾将准确率作为记忆系统的唯一KPI,这在金融风控、技术运维等事实优先的场景中运行顺畅 [11] - 但在情感咨询等场景中,用户需要的是被理解、被安抚、被肯定,而非精准的事实答案 [13] - 这促使红熊AI攻克了记忆系统的情感难题,通过给每段记忆贴上情感权重标签,从多维度量化用户情绪 [14] - 情感权重会决定记忆的优先级,并影响AI的回应逻辑,例如在用户有负面评价记忆时,AI需先安抚再同步事实信息 [14] 对AI记忆的行业误解三:Agent的未来是标准化 - 记忆与工具的加持降低了Agent开发门槛,可针对特殊场景提供解决方案,从而瓦解传统SaaS的场景壁垒 [15] - 但这也伴随着非标碎片化挑战,没有一套标准化记忆系统能适配所有行业,甚至同一行业的不同品类都需差异化定制 [15] - 在情商落地方面,不同行业的情感权重占比差异巨大:售后客服、教育场景占40%-50%,医疗、金融风控场景占10%-20%,通用陪伴场景占20%-30% [16] - 红熊AI必须在做好标准化能力的基础上,接受解决方案环节的非标准化 [17] 红熊AI的共性能力建设与非标解决方案 - 在记忆熊v0.2.0中,红熊AI强化了集群化Agent记忆协同能力,通过统一记忆中枢实现多Agent间的最小化、按需式记忆共享 [17] - 支持主管模式和协作模式,适配不同场景的智能体组织形态 [17] - 针对多模态数据处理,推出三大解析引擎实现100%版面还原,支持PPTX高保真解析、音视频以文搜音 [17] - 通过向量加图谱双驱动检索,将多跳推理准确率提升至92.5% [17] - 非标环节集中于行业词汇库积累、知识图谱打造等解决方案,首次拓展新品类客户需花费数周进行前期共建与知识梳理 [19] - 用户数据处理消耗整体约25%的成本 [19] - 需要积累不同行业知识,例如医疗行业的负面词是“疼痛、过敏、并发症”,金融行业核心词是“平仓、建仓、净值” [21] - 这种前期非标准化和缓慢的开拓过程,会成为企业的先发优势和核心壁垒 [21] 行业趋势展望 - 进入2026年,大模型的叙事正从以Scaling Law为核心的参数竞赛,切换至以记忆为主导的下半场 [22] - 记忆能力已成为拉开不同模型和Agent表现差异的核心 [22] - 参与玩家包括上游的模型厂商、框架玩家,以及红熊AI这样的专业解决方案商 [22] - 这一过程不如“百模大战”那样高举高打,也不会快速决出阶段性赢家 [22]
2026,进入AI记忆元年
36氪· 2026-01-27 18:16
行业趋势:AI竞赛进入以记忆为核心的下半场 - 自2023年年中起,SOTA模型的迭代周期被快速压缩至35天,曾经的SOTA模型在短短5个月就可能跌出Top5,7个月后连Top10都难以进入[3] - 模型技术进步进入瓶颈期,而过去两年多围绕AI记忆的技术和产品(如向量数据库、记忆框架)则呈现“你方唱罢我登场”的热闹景象[4] - 市场正诞生出越来越多跑通PMF的细分爆款,如代码补全、情感陪伴、智能客服等“模型+记忆”的商业模式[4] - 大模型的叙事正从以scaling law为核心的参数闪电战,切换至以记忆为主导的马拉松式下半场,记忆能力已成为拉开不同模型和Agent表现的核心来源[33] 对AI记忆的行业误解与红熊AI的解决方案 误解一:记忆等于RAG加长上下文 - 2023-2024年AI基础设施爆发期,RAG技术一度成为AI记忆的代名词,行业普遍认为叠加长上下文窗口和检索优化算法就能解决AI健忘问题[8] - 红熊AI创始人指出,传统RAG在落地中暴露出短板,例如在法律场景中,语义相似但适用范围天差地别的法条细节会被整体相似性掩盖,且无法遵循法律体系的优先适用规则[9] - 在客服AI场景中,RAG方案会导致每天重复回答相同问题时产生不必要的检索成本,并且在用户跨会话咨询时出现记忆丢失[10] - 基于语义检索的RAG方案只能解决不到60%的真实需求,其本质是被动的检索工具,无法解决“记不住”的核心矛盾,且通常只能以周为单位做离线数据更新,无法实时写入[10] - 红熊AI借鉴人脑记忆逻辑,打造了完整的记忆科学体系,将AI记忆拆解为显性记忆、隐性记忆、联想记忆以及动态进化记忆,不同层之间通过智能算法动态流转[12] - 该体系为记忆加入了情感加权、智能遗忘、跨智能体协同等能力,从底层重构了AI记忆的逻辑,解决了存储数据量爆炸带来的成本飙升和上下文过长问题[12] 误解二:事实检索重于一切 - 红熊AI团队曾将准确率当作记忆系统的唯一KPI,这在金融风控、技术运维等事实优先的场景中运行顺畅[15] - 但在情感咨询等场景中,用户需要的是被理解、被安抚、被肯定,而非精准的事实答案[17] - 这倒逼红熊AI攻克了记忆系统的情感难题,通过给每段记忆贴上情感权重标签,从多维度量化用户情绪(如文本中的负面/正面词汇密度、句式、情绪强度词,综合算出0-100分的情感分数)[18] - 情感权重不仅决定记忆的优先级,更影响AI的回应逻辑,例如当用户有高负面评价历史时,AI会优先安抚再同步事实信息[18] 误解三:Agent的未来是标准化 - 尽管市场期待超级Agent,但红熊AI认为Agent类产品的宿命是革命传统SaaS,但也必须走上SaaS非标碎片化的老路[22] - 没有一套标准化的记忆系统能适配所有行业,甚至同一行业的不同品类都需要差异化定制,例如电商中卖手机壳和卖手套的商家关注的关键词和记忆规则都不同[22] - 不同行业的情感权重占比天差地别:售后客服、教育场景情感权重占40%-50%,必须优先安抚情绪;医疗、金融风控场景仅占10%-20%,事实优先;通用陪伴场景占20%-30%[23] - 红熊AI必须在做好标准化能力的基础上,接受在解决方案环节的非标准化[24] 红熊AI的产品与能力建设 - 红熊AI在今年1月推出记忆熊v0.2.0,构建了完整的记忆科学体系[12] - 在记忆熊v0.2.0中,公司强化了集群化Agent记忆协同能力,通过引入统一记忆中枢,实现多Agent间的最小化、按需式记忆共享,解决传统多Agent系统的记忆冗余、冲突问题[24] - 针对多模态数据处理,公司推出了三大解析引擎实现100%版面还原,支持PPTX高保真解析、音视频以文搜音,并通过向量+图谱双驱动检索,将多跳推理准确率提升至92.5%[24] - 非标环节集中于行业词汇库积累和知识图谱打造,首次拓展新品类客户时,前期与客户共建及知识梳理就需要几周时间,用户数据处理消耗整体25%上下的成本[27] - 公司需要不断学习积累不同行业知识,例如医疗行业的负面词是“疼痛、过敏、并发症”,金融行业核心词是“平仓、建仓、净值”[29] - 这种前期非标准化的缓慢开拓,会成为企业的先发优势和核心壁垒,遵循SaaS行业从灯塔客户到细分行业解决方案再到全行业拓展的成长路径[30][31]