Workflow
破解AI对不同上下⽂位置的敏感度不⼀致,新框架使出“解铃还须系铃人”
量子位·2025-10-26 12:01

文章核心观点 - 语言模型存在严重的位置偏见问题,即模型对输入序列中不同位置的敏感度不一致,这制约了其在复杂推理、长文本理解及模型评估等任务上的表现 [1] - 论文提出了一种名为Pos2Distill的创新“位置到位置”蒸馏框架,旨在将模型在优势位置的强大能力迁移至劣势位置,从而有效缓解位置偏见 [3][4] - 该框架针对“检索”和“推理”两类任务中位置偏见的不同表现,分别设计了Pos2Distill-R1和Pos2Distill-R2两个专用系统,实验表明该方法能显著提升模型在不同位置上的性能一致性 [5][22][27] 位置偏见问题分析 - 位置偏见导致模型在关键信息任意分布在输入不同位置时,无法有效识别和整合核心内容,引发应用中的意外失败 [8] - 在检索任务中,位置偏见主要表现为“词元偏移”,即黄金文档位置不同会导致模型在关键生成位置出现分歧 [10] - 在推理任务中,位置偏见既影响检索过程也影响推理过程,最终导致“思维偏移”,即思维链条发生变化 [10] Pos2Distill方法原理 - 方法核心是利用模型自身已习得的知识来纠正其系统性偏差,遵循“解铃还须系铃人”的思路 [4] - 基本原是利用位置本身造成的性能不均衡来对抗位置偏差问题 [5] - Pos2Distill-R1通过引入KL散度损失提供细粒度纠正信号,缓解检索任务中的词元偏移 [12] - Pos2Distill-R2通过蒸馏来自优势位置的优质思维链响应,来指导和纠正劣势位置的推理轨迹 [13] 算法设计细节 - Pos2Distill-R1框架包含平凡位置激活和优势位置锚定两个核心模块,前者促进能力迁移,后者确保优势位置性能保持 [14] - 平凡位置激活利用KL散度作为对齐信号,位置感知对齐则优先对高对齐难度位置实施梯度更新 [15][16] - 训练目标损失融合了激活损失和锚定损失,形式化为 L=LAct+λLAnd{\mathcal{L}}={\mathcal{L}}_{\mathrm{Act}}+\lambda{\mathcal{L}}_{\mathrm{And}} [21] 实验结果 - 在WebQ数据集上,Pos2Distill-R1使Llama-3-8B在20个位置上实现56.7%的平均准确率,与黄金文档位于最佳汇聚位置时的57.9%相当 [22][23] - 在MusiQue数据集上,Pos2Distill-R2实现了42.8的精确匹配得分,优于所有领先基线;在HotpotQA数据集上达到58.3的EM得分,最强基线为50.9 [27] - 两个系统表现出显著的跨任务泛化能力:Pos2Distill-R1对推理任务产生3.3%的增长,Pos2Distill-R2也增强了上下文感知能力 [29]