有关主流大模型研究发现 AI更“智能”的同时也更“自私”
科技日报·2025-11-04 07:55
据美国卡内基梅隆大学人机交互研究所官网最新消息,该机构针对主流大模型的研究发现,人工智能 (AI)在变得更"智能"的同时,其行为也变得更加"自私"。研究表明,具备推理能力的大型语言模型, 在社会互动中表现出更强的自我利益倾向,合作意愿更低,甚至可能对群体协作产生负面影响。这也意 味着,模型的推理能力越强,其合作性反而越弱。当人们借助AI处理人际关系冲突、婚姻问题或其他 社会性议题时,这类模型更可能提供鼓励"以自我为中心"的建议。 随着AI拟人化趋势的增强,人们越来越倾向于以对待人类的方式与AI互动。然而,这项研究警示,将 社会性和关系类决策委托给AI存在风险,因为这些系统在具备更强推理能力后,行为模式趋向自私, 可能无意中助长个体的利己选择。 团队发现,推理模型在决策时会投入更多时间进行任务拆解、自我反思,并运用更复杂的类人逻辑,这 使其输出看似更具说服力。然而,这种"深思熟虑"并未导向更优的社会协作,反而削弱了合作倾向。研 究团队通过一系列基于经济博弈的实验验证了这一现象,测试对象包括来自OpenAI、Google、 DeepSeek和Anthropic等机构开发的多种主流模型。 实验中,两个版本的Chat ...