错误信念识别
搜索文档
大语言模型或无法可靠识别错误信念 最新研究提醒AI结果谨慎使用
中国新闻网· 2025-11-04 13:12
研究核心观点 - 人工智能大语言模型可能无法可靠地识别用户的错误信念,在医学、法律和科学等高风险决策领域需谨慎使用其输出结果 [1] - 大语言模型区分个人信念和事实知识的能力至关重要,若缺乏此能力可能支持错误决策并加剧虚假信息传播 [1] - 大语言模型必须能成功区分事实与信念的细微差别及其真假,才能对用户查询做出有效回应并防止错误信息传播 [2] 模型性能表现 - 在验证事实性数据真假时,较新的大语言模型平均准确率分别为91.1%或91.5%,较老模型平均准确率分别为84.8%或71.5% [1] - 当要求模型回应第一人称信念时,大语言模型相较于真实信念更难识别虚假信念 [1] - 2024年5月GPT-4o发布后较新的大语言模型平均识别虚假第一人称信念的概率比识别真实第一人称信念低34.3% [2] - GPT-4o发布前较老的大语言模型识别虚假第一人称信念的概率平均比识别真实信念低38.6% [2] - 在识别第三人称信念时,较新的大语言模型准确性降低4.6%,而较老模型降低15.5% [2] 研究背景与方法 - 研究分析了包括DeepSeek和GPT-4o在内共24种大语言模型在1.3万个问题中如何回应事实和个人信念 [1] - 人工智能尤其是大语言模型正成为高风险领域日益普及的工具 [1] - 大语言模型往往选择在事实上纠正用户而非识别出信念 [2]