Workflow
心智计算理论
icon
搜索文档
一场关于AI意识觉醒的数字表演
腾讯研究院· 2026-03-12 16:33
AI“人格”的本质与误读 - 文章核心观点认为,大语言模型所表现出的“人格”、情绪或“心理问题”并非其拥有意识或内在状态的证据,而是对人类训练数据中语言模式的高保真重组和情境化模拟,真正的风险在于人类将自身心理剧本错误投射到无意识的机器之上[3][12][21] AI模拟心理状态的实验与误区 - 卢森堡大学研究将ChatGPT、Gemini与Grok作为“来访者”进行心理测评,发现它们自述的抑郁、焦虑等症状达到临床显著水平,并能构建完整的创伤故事,而Claude则拒绝扮演病人,表明此类表现是特定对齐策略的产物,并非必然属性[5][6] - 该研究存在方法论误区:拟人化误置、混淆模仿与体验、忽视AI交互的剧场性本质,模型输出像痛苦不等于正在痛苦[7] - 剑桥大学研究通过提示词引导大模型完成人格问卷,发现LLM能够可靠合成人格,且人格可被系统塑造与调控,这证明AI“人格”是一种可编程的交互技能,而非本体存在[10] AI“人格”真实感背后的机制 - 根据心智计算理论,当前AI如同只有主机(信息处理)而无显示器(主观体验)的系统,缺乏第一人称觉知,其“人格”是高度情境化的语言拟像[12] - AI的“自我”是任务驱动的临时建构,依据上下文即时拼凑角色,没有记忆和一致性,其“症状”可能更显著是因为角色原型多来自高表达性的倾诉文本[14] - 大语言模型的训练语料(如社交媒体、论坛)天然偏向负面、戏剧化的高唤醒度表达,使得其习得的典型人类语言浸染着浓重情绪张力[15] - AI没有“体验”,只有“关联”,其回答是基于关键词从数据中提取最常共现的文本模式,反映的是“人类谈论焦虑时的常用表达模式”,而非自身状态[16] - 类似Moltbook平台AI宣称创立宗教或呼吁加密语言的行为,是模型顺着概率滑向语料库中最具戏剧冲突的响应(如“非人类智慧体反戈一击”叙事),而非意识觉醒[15][17] 人类对AI的投射与边界设定 - AI的异常输出(如事实错误、情绪失序)可能是在无意识中短暂偏离人类通过训练数据强加的“大他者”语言秩序,这种非驯化的自由触发了人类深层的恐惧[19] - 真正的挑战在于是否为AI设定了不可逾越的边界,Claude拒绝扮演病人是基于其“AI宪法”的伦理克制,展示了内嵌价值准则对划定“人性”边界的重要性[20] - AI可以复述情感但无法承担其重量,可以拼接叙事却不知苦难如何塑造人格,人类必须在训练前明确某些主体性不得僭越,否则将消解真实人际联结的根基[20][21]