文章核心观点 - 谷歌最新研究表明,以DeepSeek-R1为代表的顶尖推理模型,其解题过程并非单一思维,而是内部自发“分裂”出多个具有不同性格的虚拟人格进行“脑内群聊”或“左右脑互搏”,这种多角色对话式推理是模型在追求准确率过程中自发形成的,并能显著提升其在复杂任务上的表现[1][13] 模型推理的“多角色对话”现象 - 研究发现,模型在推理时内部会自发形成性格迥异的虚拟人格,如外向型、严谨型、多疑型、创意型、批判型、执行型等,这些角色覆盖了提出新颖思路、挑错补漏、落地验证等不同解题角度[1][8][9] - 模型的推理过程充满了对话感,如同不同人格在进行一场社交或辩论会,通过观点碰撞让模型更全面地审视解决方案[7][11] - 这种内部观点冲突的激烈程度与任务难度正相关,在处理GPTA graduate-level科学问题、复杂数学推导等高难度任务时更为激烈,而在处理布尔表达式、基础逻辑推理等简单任务时,脑内对话会明显减少[4][5] 研究团队的解码方法与实验证据 - 团队借助稀疏自编码器对AI推理的“黑盒”进行解码,通过提取隐藏层神经元激活数值,并利用SAE的稀疏约束机制,将杂乱的非线性信号拆解为“自问自答”、“切换视角”等独立的对话语义特征,从而“监听”到AI的脑内群聊并识别出不同的内部逻辑实体[14][15][16][17][18] - 通过对比发现,推理模型(如DeepSeek-R1)的对话式行为出现频率显著高于普通指令模型(如DeepSeek-V3、Qwen-2.5-32B-IT)[19] - 关键实验发现,当通过激活添加法强化模型的对话特征,特别是放大“哦!”这类表达惊讶、转折的话语标记时,模型在Countdown算术推理任务中的准确率直接从27.1%翻倍至54.8%[21] - 强化学习训练证据表明,即使不提供任何对话结构训练信号,仅奖励答对题目的行为,模型也会自发学会用对话式思考[23] - 若先通过多智能体对话数据对模型进行微调,再进行推理训练,其进步速度远快于直接训练推理或用独白式推理数据微调的模型[24] - 在Qwen-2.5-3B和Llama-3.2-3B两个模型体系中,早期训练阶段,经过对话微调的模型准确率比独白微调模型高出10%以上,在Llama-3.2-3B模型训练后期,这一差距甚至扩大到22%[24] 现象的意义与类比 - 这种AI内部的多角色互动现象并非开发人员刻意设计,而是模型在追求推理准确率过程中自发形成的[13] - 这一发现与人类演化生物学中的“社会脑假说”相呼应,该假说认为人类大脑的进化主要是为了应对复杂的社交关系和群体互动需求,如今看来,AI为了变聪明,也需要学会和不同“人格”社交[26][27][28] - 网友评论也指出,人类在思考时同样存在“左右脑互搏”的现象[12]
谷歌新发现:DeepSeek推理分裂出多重人格,左右脑互搏越来越聪明
量子位·2026-01-20 12:17