给大模型「持续注入新知识」,北航CASE框架:编辑千次不失忆,额外参数不到1MB丨WWW'26
量子位·2026-03-27 13:10

文章核心观点 - 北京航空航天大学团队提出了一种名为CASE的新型大语言模型终身编辑框架,旨在解决模型在持续学习新知识时面临的“灾难性遗忘”与“参数爆炸”两大核心困境 [1] - CASE框架通过“冲突评估分配”与“知识敏感神经元调优”两大核心技术,实现了在千次连续知识编辑后仍能保持高准确率与参数高效性,为AI模型在需要持续更新知识的实际场景中部署提供了潜在解决方案 [1][3][29] 技术原理与核心突破 - 核心困境:现有终身模型编辑方法存在“盲目加参数”和“无差别调参数”两大问题,导致要么计算资源占用过大,要么因梯度冲突累积而产生严重遗忘 [4] - 冲突评估分配模块:该模块通过计算新知识与已有参数子空间更新方向的余弦相似度来量化“编辑冲突”,并据此决定新知识是共享现有子空间还是新建子空间,从而从根源上避免冲突知识相互干扰并控制子空间数量 [8][9][11][12][13][14][15] - 知识敏感神经元调优策略:该策略利用Fisher信息矩阵识别对当前知识最敏感的“关键神经元”,并仅对这些神经元进行精准更新,同时通过知识激活正则化约束,确保历史知识不被破坏,从而消除局部参数更新冲突 [16][17][18] 实验性能与效果 - 编辑准确率领先:在ZsRE数据集上进行1000次连续知识编辑后,CASE在LLaMA2-7B模型上的平均准确率达到92%,比次优方法高出近10个百分点,且泛化性达82% [20][21][24] - 有效修正幻觉:在SelfCheckGPT幻觉修正任务中,经过1000次编辑,CASE使LLaMA2-7B的困惑度从3.12降至1.22,比次优方法低60%,并能稳定维持低困惑度 [20][22] - 参数与效率优势显著:CASE框架的额外参数占用不到1MB,远低于WISE方法所需的86MB,推理时每迭代耗时仅10.72秒,与未编辑模型几乎无差异,具备实际部署的可行性 [2][23] 应用前景与意义 - 解决行业刚需:在金融、医疗、法律等知识需要持续更新的领域,CASE提供了一种无需全量微调、效果稳定的轻量级模型更新方案,可应对医疗指南更新、法律条文修订等场景 [28][29] - 技术特性适配:该框架支持千级别的连续编辑,兼容LLaMA、Qwen等主流开源大模型,迁移成本低,为模型的“终身学习”能力提供了更优解 [30] - 未来发展方向:团队计划进一步探索CASE在多模态模型和非结构化数据编辑中的应用,以覆盖更多实际场景 [31]

给大模型「持续注入新知识」,北航CASE框架:编辑千次不失忆,额外参数不到1MB丨WWW'26 - Reportify