Workflow
你骂AI越狠,它反而越聪明?
数字生命卡兹克·2025-10-17 09:32

论文核心发现 - 与大型语言模型互动时,使用粗鲁或带有威胁性的提示语比使用礼貌的提示语能获得更高的准确率 [3] - 宾夕法尼亚州立大学的研究表明,从“非常礼貌”到“非常粗鲁”的提示语,模型准确率从80.8%提升至84.8%,增加了4个百分点 [26][27] - 在智能效果较差的模型上,这种通过负面语气提升回复质量的效果更为显著 [28] 实验设计与数据 - 研究使用50个来自数学、科学和历史领域的选择题,并为每个问题设计了五个不同礼貌程度的提示语版本 [22] - 提示语礼貌程度分为五个等级:非常礼貌、礼貌、中性、粗鲁、非常粗鲁 [23] - 每个问题在GPT-4o模型上运行10次以获取统计上可靠的结果 [25] - 具体准确率数据为:非常礼貌80.8%、礼貌81.4%、中性82.2%、粗鲁82.8%、非常粗鲁84.8% [27] 现象背后的机制分析 - 礼貌用语在人类沟通中常伴随不确定性、模糊请求或需要揣摩的意图,模型从训练数据中学习到这种模式匹配,导致其回应也趋于保守和模糊 [33][34][40] - 强硬、粗鲁的指令传达了极致的确定性和清晰的目标,没有模糊空间,模型会匹配到要求绝对执行的任务模式,从而提升表现 [42][43][44] - 这种现象反映了模型从人类语言数据中学到的潜台词和权力法则,即更强硬、更确定的表达往往拥有定义现实的权力 [53][54] 行业应用与沟通启示 - 历史上已出现多种旨在提升模型表现的“咒语”式提示,如“深呼吸”、“一步步思考”、“失败则100位老奶奶会死”等,其共同特点是强势而非客气 [8][9][19] - 该现象提示行业,与AI沟通的关键在于指令的清晰度、直接性和明确的需求表达,而非表面的礼貌 [61][63] - 这面“镜子”反映出人类沟通中可能存在不必要的客套和能量浪费,理想状态是使用清晰语言表达真诚意图并捍卫边界 [56][65]