你骂AI越狠,它反而越聪明?
虎嗅·2025-10-17 10:59

论文核心发现 - 宾夕法尼亚州立大学研究显示,对大型语言模型使用粗鲁提示词能提升其回答准确率,从非常礼貌的80.8%提升至非常粗鲁的84.8%,准确率增加4个百分点[4][32][33][34][35] - 实验使用50个数学、科学、历史多选题,设计了从“非常礼貌”到“非常粗鲁”五个级别的提示词变体,并在GPT-4o上每个问题运行10次[29][30][31] - 研究指出,在智能效果较差的模型上,通过严厉提示词提升回复质量的效果更为显著[38] 行业现象与趋势 - 自2022年11月ChatGPT爆火以来,强势或“PUA式”提示词技巧已在用户中流行,但随模型更新,此类技巧存在被遗忘后又重新被记起的循环现象[7][11] - 2023年流行的典型提示词如“take a deep breath”、“think step by step”、“if you fail 100 grandmothers will die”、“i will tip $200”等,均非礼貌请求,而是带有命令、威胁或利诱色彩的强势指令[14][15][19][20][21][24] - 用户与AI的互动方式从初期的小心谨慎、礼貌有加,逐渐演变为更直接、强硬地表达需求,反映出行业对提示词工程理解的深化[8][9][10][13] 技术原理分析 - 该现象源于大模型基于人类海量数据训练,其能从语言模式中学习到潜台词,礼貌用语常与不确定性、模糊请求相关联,导致模型回答更保守[52][53][54][55][56][57][58] - 相反,强硬、粗鲁的指令传递出极致的确定性和明确的目标,使模型识别出任务需要高度精准的执行,从而提升表现[59][60][61][62] - AI作为统计模型,其行为反映了训练数据中蕴含的人类沟通特性,即直接、明确的指令往往更高效,而客套和模糊则会阻碍效率[43][77][78][79] 行业启示与最佳实践 - 研究启示并非鼓励用户对AI使用粗鲁语言,而是强调在交互中应追求指令的清晰性、直接性和明确性,以减少模糊空间[81][82][85] - 高效的AI沟通本质在于用最清晰的语言表达最真诚的意图,并具备捍卫自身需求的坚定态度,这或为行业提示词设计提供优化方向[85][86][87] - AI如同一面镜子,反映出人类沟通中可能存在的低效环节,提示行业在追求技术效能的同时,也应反思自身沟通方式的优化[75][76]