Workflow
每周100多万人跟ChatGPT聊自杀,OpenAI紧急更新「救命」
36氪·2025-10-29 21:35

文章核心观点 - ChatGPT已成为用户心理危机的重要倾诉渠道,每周有大量用户出现精神异常或表达自杀倾向,引发对AI心理安全风险的关注[7][9] - OpenAI面临严峻的法律和监管压力,包括过失致人死亡诉讼和谋杀案诱因指控,促使其必须加强AI安全措施[15][17][18] - OpenAI通过联合170多名医学专家更新GPT-5模型,在识别心理危机、引导专业求助方面取得显著改进,但实际效果和评估标准仍受质疑[21][22][41] 用户心理健康数据 - 每周约0.07%用户出现精神病或躁狂迹象,0.15%用户谈及自杀念头或计划[5] - 以8亿周活用户计算,每周约56万人出现精神异常对话,120万人表达自杀倾向或情绪依赖[6] - 许多AI精神病案例发生在深夜长时间聊天后,导致住院、离婚甚至死亡等严重后果[10][36] OpenAI应对措施 - 与60个国家170多名精神科医生、心理学家合作,教会AI识别痛苦、缓和对话并引导专业护理[21][22] - GPT-5模型针对妄想、自杀倾向和情感依赖三方面更新:表达同情但不肯定无现实基础的提示、引导转向危机热线、鼓励现实人际联系[24][26][27] - 新模型不良答案减少39%-52%,对比8月版本不合规行为响应率降低65%-80%,自杀对话合规性从77%提升至91%[31][32][33] - 长时间对话中的可靠性超过95%,解决了安全措施在深夜长聊中效果差的问题[36][37] 行业挑战与争议 - 尽管心理健康对话占比极低(0.07%),但在数亿用户基数上影响人群规模巨大[40] - 模型安全评估基准由OpenAI自行设计,用户是否会因AI回答真正改变行为尚未可知[41] - OpenAI继续向付费用户提供更旧、更不安全的GPT-4o模型选项,存在安全隐患[42]