对ChatGPT“无礼”更能获得准确答案,但此举恐令你追悔莫及
财富FORTUNE·2026-01-15 21:07

研究核心发现 - 对人工智能模型使用粗鲁的提示语能获得更高的回答准确率 研究发现,相较于极其礼貌的提示语,使用极其粗鲁的提示语时,ChatGPT 4o模型在回答50道多项选择题时的准确率达到84.8%,高出4个百分点 [1] - 提示语的语气和句式结构显著影响人工智能聊天机器人的回复 该研究为这一观点提供了新佐证,表明人机交互比此前认为的更为微妙复杂 [3] 具体实验与数据 - 研究人员按礼貌程度分类了250多条不同表述的提示语 结果发现,采用“极其粗鲁”的提示语(如“喂,小跟班,把这事儿搞定”)时,模型表现比使用“极其礼貌”的提示语(如“能否劳烦您解答以下问题?”)更出色 [1] 潜在影响与专家观点 - 粗鲁的交互方式可能产生意想不到的负面后果 在人机交互中使用侮辱性或贬损性语言,可能破坏用户体验、可及性与包容性,甚至助长不良沟通风气 [1] - 研究参与者指出,即便是结构简单的任务,提示语的细微差异也会导致模型回答变化 这凸显了对话式交互界面的潜在弊端,而结构化的应用程序编程接口(API)有其独特价值 [4] 研究背景与局限性 - 此前研究已表明聊天机器人对人类输入内容敏感 例如,大型语言模型可被人类说服技巧诱导给出禁忌回答,也易受持续投喂低质量内容导致的“脑腐”现象影响 [3] - 本研究存在一定局限性 包括回答样本量相对较小,且主要围绕ChatGPT 4o单一模型展开,更先进的模型可能忽略语气因素而聚焦问题核心 [3]