Workflow
Ask Rally
icon
搜索文档
AI正在一本正经地“说谎”,我们拆解了它必然犯错的三大场景
36氪· 2025-08-25 07:13
AI决策局限性 - AI并非万能决策工具,企业主无需总是听从AI建议,在某些情况下应相信自身直觉 [3] - 在分析数千个AI虚拟人物回答与真实结果对比后,发现三种AI系统性犯错场景 [3] 信息时效性问题 - AI模型认知受限于训练数据截止日期(如ChatGPT截止2023年10月),其建议基于过时现实版本 [5] - 模型会否认或困惑于数据截止后发生的事件,例如Claude曾将"美国轰炸伊朗核设施"标记为虚假信息 [7] - 通过精心设计的提示词提供当代新闻可更新模型对时事的理解,研究显示该方法能提升AI伪装人类的能力 [8] - Ask Rally的"记忆"功能允许添加上下文信息,使AI虚拟人物能适应近期事件 [9] 社会认同偏差 - AI模型学习网络言论而非真实行为,倾向于符合社会期望的回答,造成"意图-行动鸿沟" [12] - 在环保汽车选择测试中,78%的AI虚拟人物选择昂贵环保选项,而实际人类行为仅26%会购买可持续产品 [14] - 切换到更高级模型(如Claude Sonnet)可使选择环保选项比例降至37%,更接近真实世界行为 [15] 经验缺失问题 - AI擅长模式匹配但难以处理微妙权衡,缺乏实施过程中的现实经验 [18] - 在定价策略案例中,71%的律师事务所采用小时计费,但AI仍错误推荐固定费率定价 [18][19] - AI存在"基础比率谬误",需要使用者先用自身经验或研究作为背景信息引导模型 [22] - 通过提供具体背景(如"71%律师按小时收费")可使AI进行批判性思考 [22][23] 人类认知参照 - AI的失效模式与人类高度相似:人类在信息过时、行为报告和经验缺失时会出现同类错误 [24] - AI错误的可预测性和系统性允许通过方案设计进行校正,包括挑战显见答案、行为数据校准和现实约束应用 [24]