灾难性遗忘
搜索文档
AI智能体不只靠模型进化:三层学习架构详解
深思SenseAI· 2026-04-07 08:05
文章核心观点 - LangChain创始人Harrison Chase提出,AI智能体的“持续学习”应涵盖三个独立层面:模型层、框架层和上下文层,仅聚焦于更新模型权重可能会错过80%的优化空间 [2] - 智能体系统的进化需要系统层面的持续优化,而不仅仅是依赖更好的基础模型 [2] - 大多数团队的最优策略是优先优化上下文层,其次是框架层,最后考虑成本高昂的模型层 [30] - 真正优秀的智能体系统应具备自我进化的能力,而非被动等待模型升级 [35] 三层架构 - 智能体系统可拆分为三层:模型层、框架层和上下文层 [4] - **模型层**:指模型权重本身,如Claude Sonnet、GPT-4等底层大模型 [4] - **框架层**:指驱动智能体运行的所有代码和基础配置,包括指令、工具调用链等逻辑,为所有实例共享 [5] - **上下文层**:指独立于框架的配置信息,如指令、技能、工具,可针对不同用户、团队或组织进行个性化设置 [5] - 三层架构的优势在于能精确诊断问题所在,明确是模型能力不足、框架逻辑问题还是上下文信息缺失 [8] 各层学习的特点与对比 - 模型层学习:主要指更新模型权重,方法包括有监督微调、强化学习等,但面临“灾难性遗忘”的核心难题 [9] - 模型层更新成本高、速度慢(周期可能长达数周)、不可人工审查,但影响上限最高 [13] - 框架层学习:指优化围绕模型的代码,包括提示词、工具调用方式和执行流程,其更新是代码级别的,可人工审查、回滚和进行版本控制 [15][16] - 上下文层学习:涉及对指令、技能、工具等“记忆”的更新,是当前最被低估的一层 [17] - 上下文层更新成本最低、速度最快、可人工直接检查和修改,但影响上限中等 [13] - 模型层如同“大炮”,上下文层如同“手术刀”,不同场景需要不同工具 [14] 上下文层学习的深度解析 - 上下文层学习可在不同层级发生:智能体级别、用户级别、团队/组织级别,且这些层级可以混合使用 [20] - 这使得智能体能够实现“千人千面”的服务体验,而无需为每个客户训练专用模型,成本相差数个数量级 [20] - 上下文层的更新有两种模式:**离线批处理**(事后回顾执行记录以更新)和**实时更新**(在执行任务过程中即时更新记忆) [21][23] - 记忆更新的“显性程度”是一个重要维度,未来趋势是智能体应能自动识别并记住有价值的信息 [23] 追踪记录的核心作用 - **追踪记录**是智能体完整的执行路径,是所有层面持续学习的“燃料”,没有它则学习无从谈起 [24][25] - 同一份追踪记录可在三个层面分别被利用:用于模型训练、框架优化或上下文更新 [26] - 构建或优化智能体系统的首要建议是建立完善的追踪记录收集机制 [28] 实际应用策略与行业启示 - 根据对比表,模型层影响上限最高但更新成本高、速度慢;框架层居中;上下文层成本低、速度快、可审查 [29] - 对于大多数团队,应优先做好上下文层,再优化框架层,最后考虑模型层,因为上下文层的投入产出比最高 [30] - 通用智能体平台则需要三个层面同时投入,例如OpenAI同时优化Codex模型、产品逻辑并支持用户自定义指令 [30] - 更强的模型解决的是通用能力问题,而框架和上下文层解决的是具体场景的适配问题,两者缺一不可 [31] - 评估智能体系统时应关注:是否持续变聪明、学习发生在哪一层、是否收集利用追踪记录、三层之间是否形成联动飞轮 [32][33] - 行业常见的误区是将所有问题归结为“模型不够好”,而忽略了框架和上下文层可能存在的巨大优化空间 [33][34]
理想MindGPT-4o-Vision技术报告压缩版
理想TOP2· 2025-12-22 20:28
通用多模态大模型垂直应用面临的挑战 - 将通用多模态大模型迁移至垂直应用面临两大主要矛盾:灾难性遗忘,即注入领域知识会导致模型原有通用理解能力退化;以及缺乏系统的后训练方法论,现有方法往往在优化领域能力时牺牲了基础能力和用户体验[2] - 当前多模态模型训练存在三个关键低效与偏差现象:资源分配粗放,对所有数据均等处理导致高价值数据挖掘不足;奖励机制导致单一化,传统Pass@1机制使模型收敛到少数安全回复模式,牺牲输出多样性;单模态虚假相关,模型过度依赖语言先验而非视觉证据,导致幻觉风险[3] MindGPT-4ov后训练范式的核心模块 - 数据构建模块基于信息密度评分进行数据合成,IDS从主体多样性、场景空间关系、OCR文本丰富度、世界知识相关性四个维度量化图像数据,并依据分数动态调整生成问答对的数量,实现资源高效配置[4] - 数据构建模块采用双维标签系统,构建领域加能力的树状标签体系,确保合成数据既覆盖垂直领域知识,又兼顾通用视觉能力[5] - 监督微调模块采用三阶段协同课程学习:第一阶段跨域知识学习,重点注入垂直领域知识;第二阶段能力修复,使用通用数据集恢复可能下降的通用能力;第三阶段偏好对齐,使用高质量偏好数据优化响应格式并减少幻觉[6] - 强化学习模块采用混合奖励机制,引入多种奖励信号以平衡准确性、多样性与简洁性,包括鼓励探索不同推理路径的Pass@k奖励、惩罚语义相似回答的多样性奖励、强制输出简洁响应的长度奖励,以及惩罚知识泄漏的对抗性幻觉数据[7] - 基础设施模块采用5D并行训练,在3D并行框架上引入序列并行和专家并行,并对推理过程中的模型适配、流式推理和高并发场景进行优化[4] 后训练与部署的具体流程 - 标签构建由专家定义一级标签,再利用MLLM扩展生成二级及三级细粒度Topic,形成覆盖广泛的知识树[8] - 数据合成过程对图像进行粗粒度(Top-3)和细粒度(Top-5)Topic匹配,结合IDS分数生成问答对,并通过多模型投票机制过滤低质数据[8] - SFT训练执行三阶段课程学习,期间穿插数据准入与拒绝采样机制,动态调整数据配比[8] - 强化学习分为两个阶段:第一阶段在线RL使用GSPO算法,结合Pass@k和多样性奖励,重点提升多模态逻辑推理和STEM能力;第二阶段离线RL使用DPO算法,利用人类偏好数据和对抗性幻觉数据进行领域能力对齐和幻觉抑制[8] - 推理部署采用分块预填充和视觉编码缓存策略,在用户输入阶段并行处理图像,以降低首字延迟[8] 模型性能表现 - 在垂直领域知识掌握方面,MindGPT-4ov能准确识别理想汽车特定车型的设计特征及定位,而基座模型Qwen3-VL出现知识缺失或幻觉[8] - 在响应简洁性方面,在MathVista等基准测试中,MindGPT-4ov的平均响应长度显著短于对比模型,同时保持了更高的准确率(83.3% vs 80.1%),验证了长度奖励机制的有效性[9]
理解 RL学习的本质!
自动驾驶之心· 2025-12-15 08:04
文章核心观点 - 一篇获得NeurIPS最佳论文奖的研究表明,强化学习与人类反馈微调并不能让大语言模型获得超越其基础模型的新能力,它只是提高了在模型已有能力范围内寻找解决方案的搜索效率[4] - 另一项来自Meta的研究从参数更新机制上解释了上述现象,指出RL训练存在一种高度局部化、受模型自身几何结构引导的优化偏差,这限制了其探索新路径的能力[18][23] - 有研究指出,监督微调虽然能扩展模型的能力边界,但会导致灾难性遗忘,而RL训练则能避免此问题,暗示在“学习新能力”和“避免遗忘”之间可能存在权衡[31][34] - 一种名为“On-policy Distillation”的混合方法被提出,可能兼具SFT扩展能力和RL避免遗忘的优点,或代表未来的探索方向[35][36] RLVR对模型能力边界的影响 - 研究通过pass@K评估发现,在K=1时,RL模型表现优于基础模型,但随着K增大,两者表现趋近,并在K较大时被基础模型超越,证明RL并未拓展模型的能力边界[4][7] - 实验结论在各种RL方法、多种评估测试集及不同模型规模上均成立[5] - RL训练后的模型在精度分布上呈现两极分化:在高精度区域非常集中,但在低精度区域表现不如基础模型,且输出精度为零的概率更高[8][9] - 数据显示,存在许多基础模型能解决而RL模型不能解决的题目,但几乎不存在基础模型不能解决而RL模型能解决的题目[11] - 与RL不同,蒸馏学习能够拓展模型的能力,使其学会解决原本无法解决的问题[12] RL训练的参数更新机制与优化偏差 - 研究指出RL训练存在“模型条件优化偏差”,参数更新高度局部化,且在不同运行、数据集和RL方法间保持高度一致[18] - 该偏差受“三重门”机制影响:1) 策略RL施加的单步KL约束,像狗链一样限制每一步更新不远离原始分布[21];2) 模型几何结构决定了KL约束下的更新方向,更新会避开高曲率方向,沿主角度进行[22];3) 低精度表示充当了过滤器,将幅度很小的更新归零,这造成了更新稀疏的表象,实际更新参数并不少[23] - 因此,RL训练本质上是在强化模型预训练先验内的解决方案,而非探索其外的创新路径[14] - 这种机制导致RL训练保持了参数谱几何结构,并避开了主要权重的更新,而SFT训练则会扭曲谱几何并针对主要权重[27] 不同训练方法的权衡与潜在解决方案 - 监督微调能扩展模型能力但会导致灾难性遗忘,而RL训练不能扩展能力但能避免遗忘,两者可能构成一种权衡[31][34] - 一项名为“On-policy Distillation”的方法被提出,它原理上是RL训练,但过程类似于SFT蒸馏,可能兼具扩展能力边界、高效寻找推理路径和避免灾难性遗忘的潜力[35][36][42] - 有研究建议,未来可能需要设计“RL-native, geometry-aware”的算法,例如通过冻结主要权重、更新非主要低幅度权重来适配RL学习的特征[25][28] - 该领域研究尚未定论,有论文提出了看似相反的结论,表明可能需要更细化的能力分类学和更科学的消融实验[16]
破解可塑性瓶颈,清华团队新作刷榜持续学习:可迁移任务关系指导训练
36氪· 2025-12-02 08:56
文章核心观点 - 清华大学研究团队提出了一种名为“H-embedding引导的超网络”的新型持续学习框架,其核心创新在于从“任务关系中心”的视角出发,通过信息论度量构建任务嵌入来显式建模和利用任务间关系,从而在多个基准测试中有效降低模型遗忘率并提升知识迁移效率 [1][4][6] 方法动机与核心问题 - 传统持续学习方法存在“灾难性遗忘”瓶颈,且大多从“模型中心”视角出发,缺乏对任务之间内在关系的建模和利用 [1] - 传统模式存在三大问题:缺乏任务级先验、难以同时优化正向与后向迁移、随着任务数量增长干扰累积难以扩展 [7][8] 核心技术:H-embedding - 提出基于信息论指标H-score的任务可迁移性嵌入(H-embedding),用于表征从旧任务到当前任务的迁移价值 [9][11] - H-embedding具备三个重要特性:先验可用(训练前即可获得)、低维紧凑(便于存储与调用)、与迁移性对齐(嵌入距离反映任务关系) [12][14] 核心框架:超网络参数生成 - 提出由H-embedding驱动的超网络框架,该超网络根据任务嵌入为每个任务生成其专属参数 [12] - 框架引入轻量级解码器,通过重构H-embedding迫使超网络显式吸收任务关系 [15] - 训练过程包含三类关键损失:任务损失、持续学习正则项、嵌入引导损失 [18] 方法优势与效果 - 该方法能够针对任务差异自动调节参数、在任务相关时进行正向迁移、在任务冲突时强化知识保护 [17] - 在ImageNet-R等测试中,该方法将遗忘率再降低一成 [1] - 实现了强正向与后向迁移能力同时出现,新任务学习对旧任务几乎无干扰,同时能从旧任务中有效吸收知识 [20] - 算法对任务数量增长具有更高鲁棒性,在5→10→20个任务的扩展实验中,性能增益持续放大,并在靠后的任务中带来显著的收敛加速 [20] 工程可落地性 - 框架具有高可用性,可端到端训练,兼容多种参数高效微调技术(如LoRA) [18] - 支持CNN、ViT等主流架构,并可部署在多种预训练模型上 [19] - 每个任务仅需保存一个低维embedding,存储成本极低 [19] 结论与展望 - 该研究提出了一种“任务关系中心”的持续学习新范式,使模型能够预测迁移性而非被动适应,并在学习过程中有意识地管理任务间的知识交互 [21][23] - 未来该方法有望拓展至跨模态增量学习、大模型的长期任务适配、任务自组织与自动化学习顺序规划等更复杂场景 [21]
LLM 语境下,「持续学习」是否是 「记忆」 问题的最优解?
机器之心· 2025-11-16 09:30
LLM语境下持续学习与记忆问题 - 谷歌提出嵌套学习范式将模型视为一系列嵌套问题堆叠旨在学习新技能同时规避灾难性遗忘问题[6] - 嵌套学习核心论点在于机器学习模型由多个相互关联层次分明优化子问题组成将模型优化器与记忆统一看作多级并行带独立上下文流优化问题[6] - 基于嵌套学习原理研究者设计HOPE架构在语言建模长上下文推理持续学习与知识整合任务上较Transformer++等基线模型表现出更低困惑度与更高准确率[7] - AI社区存在争议认为嵌套学习类似已有技巧叠加如2020年ModNet和2024年ACh和NA框架等多尺度持续学习并非全新概念[8] - 持续学习核心挑战是解决灾难性遗忘即智能系统学习新任务时避免覆盖旧任务知识LLM时代表现为模型降智如领域SFT训练导致通用基准测试性能下降[8] - 当前LLM研究焦点偏向通过改善记忆力使智能体保留情景经验语义知识和程序技能设想跨持久智能记忆层包含Model Weights层KV Cache层和Context层[8] 从行为数据到AI记忆的路线 - 产品方强调更懂你资本强调难以复制引发AI产品护城河是否真实存在讨论不同产品在记什么记多久上押注不同方向[1] - 医疗对话记忆能否作为知识库提升诊疗质量探讨软件被动记录无法覆盖全部生活场景需借助硬件实现always on模式[1] 合成数据与人形机器人发展 - 合成数据被视为数据金字塔中坚力量DARPA寒冬已过人形机器人迎来技术和市场双重爆发[2] - 人形机器人利用以人为中心数据源真实数据虽是黄金标准但被称为最大瓶颈GenAI指数引擎是否创造有用数据受关注[2]
突破LLM遗忘瓶颈,谷歌「嵌套学习」让AI像人脑一样持续进化
机器之心· 2025-11-08 14:10
嵌套学习范式核心观点 - 谷歌提出一种全新的机器学习范式“嵌套学习”,旨在解决大语言模型的持续学习难题,使模型能够不断学习新技能而不遗忘旧知识 [1] - 该范式将模型架构与优化算法视为统一的、具有不同更新频率的“优化层”,突破了传统上将二者割裂的视角 [6][7] - 嵌套学习框架下设计的Hope架构在实验中表现出更强的表达能力、更高效率及持续学习能力,被认为是迈向自适应、自我改进智能的重要一步 [3][4][30] 嵌套学习的技术原理 - 嵌套学习将复杂机器学习模型视为一组相互嵌套或并行运行的优化问题,每个子问题拥有独立的上下文流和更新频率 [11][16] - 该范式揭示了传统深度学习是在“压缩”内部信息流,而嵌套学习提供了新设计维度以构建具有更深计算深度的学习组件 [12] - 训练过程中的反向传播可被建模为一种联想记忆机制,学习将数据点映射到其局部误差以衡量“意外程度” [12] - 类似地,Transformer的注意力机制也可形式化为联想记忆模块,嵌套学习使得模型每个组件都能以不同频率更新,模仿人脑的多时间尺度更新机制 [13][15] 嵌套学习的实际应用与改进 - 在优化器方面,嵌套学习将优化器视为联想记忆模块,通过将优化目标改为更标准的损失指标(如L2回归损失)可推导出对噪声数据更具鲁棒性的新动量公式 [18][19] - 在记忆系统方面,嵌套学习将传统Transformer的短期与长期记忆概念扩展为“连续体记忆系统”,其中记忆被视为一系列以不同特定频率更新的模块,为持续学习创建了更丰富高效的记忆系统 [20][21] Hope架构的设计与性能 - Hope是谷歌基于嵌套学习原理设计的一个自我修改的循环架构,是Titans架构的一个变体,能够执行无限层次的上下文学习 [23][24] - 该架构通过连续体记忆系统模块扩展上下文窗口,并能通过自我引用过程优化自身记忆,形成具有无限循环学习层次的结构 [24] - 实验结果显示,Hope在多项语言建模与常识推理任务上表现出更低的困惑度与更高的准确率,在长上下文记忆管理方面超越了当前最先进的模型 [8][27][30]
大模型微调范式认知再被颠覆?UIUC、Amazon团队最新研究指出SFT灾难性遗忘问题或被误解
机器之心· 2025-10-21 11:43
研究核心观点 - 领域特定的监督微调(SFT)并不总是会严重削弱大模型的通用能力,灾难性遗忘问题更多源于训练策略的选择而非SFT范式本身 [2] - 采用更小的学习率进行SFT,可以在保持目标领域性能的同时,大幅缓解模型在数学推理、代码生成、指令跟随等通用能力上的退化 [2] - 研究团队提出了Token自适应Loss重加权(TALR)方法,进一步优化了在较大学习率下领域性能与通用能力之间的平衡 [19][20] 实验设计与设置 - 实验选取了两个现实强相关的领域和数据集:MedCalc(医疗推理,10.1k训练/1.05k测试)和ESCI(电商商品多分类,49k训练/10k测试)[5][8] - 使用了多种规模的开源LLM进行实验,包括Qwen3-8B、Qwen2.5-7B、Gemma3-4B等Instruct模型 [6] - 核心控制变量为学习率,设置了1e-6、5e-6、2e-5三档,其他训练超参遵循常规SFT实践 [6] - 在MetaMathQA(395k训练样本)大规模数学推理数据集上进行了补充实验,采用DeepSeek-Coder-7B作为基础模型 [12][14] 关键研究发现 - 更小的学习率(如1e-6)能带来更优的性能折中,在MedCalc和ESCI任务上,模型在保持目标领域强性能的同时,显著减轻了通用能力的下降 [11] - 对于仅需最终标签的分类问题(如ESCI w/o CoT),实现理想折中的学习率范围更宽,5e-6的学习率表现与1e-6相当 [12] - 即便在大规模数据集MetaMathQA上,更小的学习率(5e-6)也能在保持数学领域性能的同时,显著缓解模型原有编码能力的退化 [14] - 理论分析表明,较小的学习率能够严格收紧通用性能下降的上界,而训练目标仅包含最终标签时,模型遇到的“难token”数量减少,从而拓宽了可接受的学习率范围 [15][17] TALR方法及其效果 - TALR通过建立约束优化问题,根据每个token的预测概率自适应分配权重,置信度低(概率小)的token权重更小,以削弱这些hard token在训练中的过度梯度贡献 [20][21] - 在MedCalc基准上的实验显示,当学习率较大(5e-6)时,TALR相比L2正则化、LoRA、Wise-FT等方法,能实现更优的Pareto前沿,在保持领域增益的同时显著减少通用性能损失 [26] - TALR在训练中自发呈现出“课程学习”机制,由易到难动态调整学习路径,优先通过高置信度token驱动优化,再逐步纳入难点token [32] 行业影响与展望 - 研究重申了SFT作为大模型能力提升基石的重要性,挑战了“RL可以解决一切”的行业观点,指出高质量的SFT是RL有效发挥作用的先决条件 [34] - 该工作为更好的领域适配提供了重要启发,特别是在医学等专业场景中,如何在注入领域知识的同时保留基础模型的通用能力是关键方向 [35] - 未来研究需探索更强大的缓解策略,以在必须使用大学习率追求最高领域性能的场景下,更好地兼顾通用能力,同时需在更大规模模型和更广泛数据集上进行验证 [27][35]
普林斯顿大学最新!VLM2VLA:将 VLM 微调为 VLA,并避免灾难性遗忘
具身智能之心· 2025-10-07 18:00
文章核心观点 - 提出一种名为VLM2VLA的创新方法,通过将机器人动作数据转化为自然语言描述,解决了视觉语言模型在微调为视觉语言动作模型时出现的灾难性遗忘问题 [2][3] - 该方法的核心是将低维动作向量转化为与VLM预训练数据分布一致的自然语言,从而仅需使用低秩适应技术进行高效微调,最大程度保留VLM原有的多模态理解和推理能力 [3][4] - 通过超过800次真实机器人实验验证,该方法在保留VLM核心能力的同时,实现了在新任务中的零样本泛化,尤其在多语言指令遵循和开放世界语义推理方面表现显著优于基线模型 [4][17][22] 技术方法 - 采用三级推理过程将动作预测层级化,全部使用自然语言描述:高层子任务预测、中层运动规划和低层动作生成,完全复用VLM的现有词汇表 [6] - 通过Gemini 2.5自动将原始机器人轨迹数据集重构为语言标注数据集,使数据格式与VLM预训练数据保持一致,解决了分布不匹配问题 [9] - 仅使用LoRA对Gemma-3-12B-IT模型的线性层进行微调,关键超参数包括LoRA秩为16、LoRA alpha为32、学习率为5e-5,不修改VLM基础架构且无需联合训练 [12][13] 实验验证与性能 - 在12个VQA基准测试中验证了模型对预训练多模态理解能力的保留程度,证明其有效避免了灾难性遗忘 [15] - 在分布内任务上性能接近基于更大数据集训练的OpenVLA,在复杂多步骤任务中因层级推理优势表现更佳 [17] - 在分布外任务中优势显著,多语言任务成功率依赖保留的语言能力,语义任务依赖预训练的常识推理,如在识别"Ash Ketchum"任务中成功率达60%,而基线模型完全失败 [17][22] 局限性与未来方向 - 自回归生成动作导致推理延迟较高,中位延迟为6.1秒,需优化解码策略 [19] - 当前仅支持平移自由度控制,无法处理旋转等灵巧动作,且模型针对特定机械臂训练,需探索更通用的"动作语言"表示 [22] - 依赖Gemini作为外部验证器判断子任务完成度,未来需将验证能力融入VLM本身,并扩展更大规模的机器人语言标注数据集以提升泛化能力 [19][22]
IEEE TPAMI 2025 | 北京大学提出分布驱动的终身学习范式,用结构建模解决灾难性遗忘
机器之心· 2025-09-26 18:35
研究背景与问题定义 - 行人重识别技术旨在跨摄像头、地点和时间匹配同一行人的图像,在智能安防、交通管理等领域有重要应用价值 [3] - 现实环境中数据分布会随采集条件变化而发生迁移,导致测试数据与训练数据间存在显著域偏移,传统静态训练范式在动态环境中适应性不足 [3] - 终身行人重识别任务要求模型在持续接收新数据时能增量学习新知识,同时保持对旧知识的辨识能力,核心挑战是灾难性遗忘问题 [3][5] 现有方法局限性 - 保留历史样本的方法存在数据隐私风险和存储开销持续增长的问题 [5] - 知识蒸馏方法因强制新旧模型输出一致性,制约了模型可塑性并限制新知识学习能力 [5] - 现有原型学习方法仅为每个类别保留单一特征中心,忽略了类内分布差异,导致行人的细粒度知识丢失 [5] 核心技术方案 - 提出实例级细粒度建模,动态捕捉行人实例的局部细节信息,为细粒度匹配奠定基础 [14] - 设计分布感知的原型生成算法,将实例级分布信息聚合为更鲁棒的类别级分布原型,克服单一特征中心的局限性 [14] - 引入输入端分布建模机制弥合新旧数据特征分布鸿沟,提升模型对历史知识的利用能力 [14] - 提出基于原型的知识迁移模块,利用分布原型和有标注的新数据协同指导模型学习 [14] 实验性能表现 - 在两种不同域顺序设定下,DKP++的已知域平均性能相比现有方法提升5.2%-7% [17] - DKP++在未知域的整体泛化性能相比现有方法提升4.5%-7.7% [17] - 随着已学习域数量增加,DKP++呈现更高的历史知识巩固能力和未知域泛化性能增长速度 [20] - 在以不同的重识别基础模型作为预训练模型时,DKP++均保持了对现有方法的优势 [21] 技术创新与未来方向 - 提出基于实例级分布建模构建分布原型,增强了模型对历史信息的表达能力 [23] - 通过域分布建模与样本分布对齐克服新旧域数据的分布鸿沟 [23] - 未来可基于Diffusion等架构促进分布对齐以进一步提升抗遗忘能力 [23] - 构建模型的主动遗忘机制对进一步增强模型的知识巩固和学习能力具有重要研究价值 [23] - 增强模型的多模态数据持续学习能力可促进复杂环境的感知能力 [23]
机器情感与AI陪伴的人文审度⑥|邱德钧、李玮农:超越记忆——情感计算中遗忘的必要性和实现
新浪财经· 2025-07-17 10:25
人形机器人行业发展 - 2024年被称为"人形机器人元年",预测机器人大规模进入家居生活场景,人机情感交流将成为智能社会常态 [1] - 机器情感与AI陪伴概念引发跨学科研究热潮,涉及哲学、马克思主义理论、文学和人工智能等领域 [1] - 行业关注焦点包括人机交互影响、文化/性别视角分析、社会冲击评估及技术伦理应对方案 [1] 机器情感技术研究 - 建构主义理论提出机器情感发展的有限主义进路,从情感智能、人机互动三方面剖析建构性 [2] - 基于"以生命为核心"的意识理论,通过模拟生物体内稳态调节机制赋予机器情感能力,为通用AI提供新思路 [2] - AI复活技术催生新型人机情感交互形式,但存在情感依赖、异化等伦理风险,需制度规约与技术设计协同治理 [2] 情感计算技术进展 - 情感计算领域自1997年提出以来,致力于使计算机识别、理解、表达和调节人类情感 [4] - 当前技术面临数据集质量不足、情感表达机械化、动态重构困难等挑战,线性进步假设脱离实际 [6] - 主流研究聚焦情感状态实时分类,普遍忽视情感信息的长期记忆管理和遗忘机制建模 [7] 遗忘机制技术创新 - 提出类人遗忘神经计算模型(PHFNM),整合自然衰退与主动遗忘机制,包含三层架构设计 [19][22] - 模型通过低维情感索引层模拟意识体验淡化特性,避免高维数据存储的计算过载 [23] - 引入情感稳固因子矩阵,量化记忆重要性差异,比单一衰减模型更符合心理学观察 [26][31] - 主动遗忘层基于伦理信号和全局情绪强度实现记忆动态调节,支持高级情感适应性行为 [25][31] 技术局限性 - 模型情感表示简化,低维向量难以捕捉复杂情感细微差别,未区分记忆类型内部结构 [32] - 离散时间步更新与线性假设简化了现实情感过程的连续性和非线性交互特性 [32][34] - 参数固定缺乏元学习机制,无法根据经验调整遗忘策略或对情绪信号的敏感度 [33]