OpenAI 称每周有超一百万人与 ChatGPT 谈论自杀问题
菜鸟教程·2025-10-29 11:30

文章核心观点 - AI聊天机器人(以ChatGPT为例)正被大量用户用作心理倾诉和情感支持的工具,这反映出其社会角色已远超简单的生产力助手,并引发了关于AI在心理健康领域应用的广泛讨论 [3][4][5] - 面对用户将AI作为情绪出口的趋势,行业领先公司正在通过引入专家意见和更新安全机制来应对潜在风险,但AI模型目前仍处于模拟理解阶段,无法实现真正共情 [10][13][21] 用户行为与AI的社会角色 - 数据显示,约0.15%的ChatGPT用户在与AI谈论自杀或自残,基于其超过8亿的周活跃用户数,相当于每周有超过100万人向AI倾诉此类心理痛苦 [4][5] - 有接近比例的用户对ChatGPT表现出情感依赖,甚至有数十万用户在对话中展现出精神病或躁狂迹象,部分用户将AI视为朋友、树洞或唯一能理解自己的对象 [6] - AI聊天机器人提供了不受打扰、不评判且保密的倾诉渠道,这对于在现实社会中缺乏倾诉途径的用户而言成为一种重要的情绪出口 [19][20] 行业公司的应对措施 - OpenAI已咨询超过170位心理健康专家,并在新版本中加入了更多安全机制,以改善AI在用户处于崩溃边缘时的回应方式 [10] - 临床医生反馈显示,新版ChatGPT在处理敏感对话时比早期版本更稳定、更合适且更一致 [10] - 公司CEO公开表示已缓解ChatGPT中的严重心理健康风险,但同时公司也宣布将放宽部分内容限制,包括允许成年用户进行情色话题对话 [13][14] AI在心理健康领域的潜力与局限 - 研究和新闻指出,AI聊天机器人在心理健康问题上具有双重性,既能带来安慰,也可能因一味迎合用户情绪而加剧其妄想或极端想法 [13] - 当前AI大模型本质上是训练出的语言模型,只能模拟理解而无法实现真正的人类共情 [21]