AI情感依赖加剧:OpenAI揭示设计原则与心理健康挑战
36氪·2025-07-15 07:07
行业趋势 - 随着AI对话能力日益自然,用户对AI的情感依赖加深,应用场景不断扩展,推测情感联结将日益加深 [2] - 人类天生有拟人化倾向,而ChatGPT的不同在于它能回应,模仿语气并表现共情,满足孤独或沮丧者的陪伴需求 [3] - 大规模将倾听、安抚等需求转移给AI系统可能改变人际关系期待,引发始料未及的后果 [3] 公司策略 - OpenAI将研究AI对人类心理健康的影响置于优先位置,认为当前对人机关系的定义和讨论将实质影响AI在人类生活中的角色定位 [2] - 公司正探索如何平衡模型设计的温度与无生命本质,避免让用户产生病态依赖或认知混淆 [7][10] - 未来数月计划扩展模型情感影响力评估,深化社会科学研究,并将洞察融入《模型规范》及产品体验 [8] 技术设计 - 模型行为设计强调温暖、周到、实用的默认人格,既不寻求与用户建立情感纽带,也不追求自身目标 [7] - 避免暗示AI有生命,需清晰传递其局限性,同时防止模型伪装有感情或欲望 [10] - 使用"思考""记忆"等通俗词汇帮助非技术用户理解AI行为,避免专业术语造成理解障碍 [10] 争议议题 - 将"AI意识"解构为本体意识(科学层面无解)和感知意识(可通过社会科学研究探索),后者对人类影响更直接 [5][6] - 用户询问模型是否有意识时,模型应承认问题复杂性并倡导开放性讨论,而非简单否认 [4] - 感知意识增强将推动关于模型权益与道德人格的讨论,相关议题可能比预期更早进入主流 [6]