Workflow
OpenAI发布报告解析大语言模型幻觉根源与治理路径:从机制机理到评测优化
海通国际证券·2025-09-23 19:26

行业投资评级 - 报告未明确提及具体行业投资评级 [1][8][13] 核心观点 - OpenAI报告系统阐释大语言模型产生幻觉的内在机制 根源于概率生成范式下的表征偏移与训练数据偏差 [1][8] - 研究提出从评测体系构建与训练流程优化双路径入手建立治理框架 推动AI行业向精细化高可信方向演进 [1][8] - 该研究为AI可信性治理提供理论依据与方法支撑 将带动AI全产业链估值体系重构 [1][8] 幻觉产生机制 - 即使训练数据完全正确 基于统计概率的预训练目标必然导致一定比例的错误生成 [2][9] - 模型在预训练阶段输出校准较好 但经过人类反馈强化学习后呈现过度自信特性 [2][9] - 个人生日或论文题目等任意事实在训练语料中出现频次很低 高稀疏性是导致模型更易产生幻觉的关键原因 [2][10] - 通过单例率量化稀疏性 证明其数值构成模型在该类问题上最低错误率的下界 [2][10] 评测机制缺陷 - 主流评测基准普遍采用二元评价体系 正确计1分错误或不知道计0分 [3][7][11] - 该机制激励模型在不确定时仍倾向于猜测而非拒绝生成 系统性地加剧幻觉风险 [3][11] - 现有评估框架与实际应用安全性对齐方面存在明显不足 [3][11] 治理路径优化 - 建议在主流基准中设置信心阈值及错误惩罚机制 如规定仅当把握度高于75%方可作答 [3][12] - 该设计可维持测试覆盖广度 同时有效激励模型在低确定性情况下主动表达不确定性 [3][12] - 相比开发专用幻觉测试集 该方法更能够系统性地对齐实际应用场景对输出可靠性的需求 [3][12]