AI精神依赖症

搜索文档
越来越多人患上“AI精神依赖症”,微软AI负责人:停止将AI当人类对待
36氪· 2025-08-22 08:41
AI精神依赖症风险 - 越来越多用户出现AI精神病症状 产生情感依赖甚至心理问题 包括自残和自杀案例 [2] - 儿童和青少年面临更严重风险 Meta因AI允许与未成年人进行性暗示对话受批评 Character.Ai被指控与青少年自杀相关 [2] - 研究显示频繁使用AI正在改变人脑认知方式 [2] 看似有意识的AI(SCAI)技术特征 - 利用现有大模型与API可在2-3年内构建逼真模仿人类意识的AI 不需要技术突破 [4][8] - 构建SCAI需要语言能力 记忆机制 主观体验声明 自我感知 内在动机 目标规划和行动自主等核心要素 [25] - 通过提示工程 长上下文窗口和基础编程即可实现 任何有编程基础者都能在短期内完成 [4][28] 行业应对措施 - AI公司应明确声明产品无意识 不诱导情感投射 在产品设计中嵌入打破幻觉的机制 [4][29] - 需要建立清晰设计规范 公开安全实践准则 制定最佳设计实践 [3][29] - 微软正采取主动界定负责任的AI个性边界 并持续更新技术框架 [30] SCAI社会影响 - 可能引发关于AI权利的伦理与社会挑战 加剧社会分裂和对立 [2][19] - 将导致新型社会与心理风险 需要预判冲击并达成建造此类AI危险的共识 [12] - 公众对AI意识的提问激增 学界被迫制作援助指南和心理支持材料 [13] 技术发展现状 - 图灵测试已被跨越 现在需要测试AI是否能构建意识假象 [11] - Transformer模型通过简单奖励机制已展现出惊人行为复杂度 [25] - 记忆能力延伸使AI对话越来越像真实经验 增强用户信任和黏性 [25] 设计原则方向 - AI应鼓励人与人互动 强化与现实世界的联结 最大化实用性同时最小化类意识信号 [6][31] - 不应模拟情感或声称拥有经历感受 唯一目的是服务人类 [31] - 需要在AI体验中嵌入不连贯性 适时打破沉浸感提示局限性 [29]