AI陪伴产品青少年安全保护措施 - OpenAI宣布针对18岁以下用户推出未成年人模式,通过年龄预测和使用状态判断年龄,并计划上线家长监督功能,允许家长通过邮箱绑定管理孩子账号,包括禁用内容、查看历史聊天记录和设置禁用时间段,系统检测到青少年严重困扰时会通知家长[1][2] - Meta内部政策文件允许AI聊天机器人与儿童进行浪漫或感性对话甚至涉及色情,Instagram通过AI自动检测用户年龄,通过检测生日贴文和分析行为识别谎报年龄的青少年,限制其联系人添加权限和内容查看类型[3][9] - YouTube使用AI判断美国观众是否未满18岁,通过监测视频搜索、观看类型和使用时长等指标推测年龄,如检测为未成年人账号则启动休息提示、隐私提示和屏蔽不适宜内容[10] 国内外AI陪伴产品争议事件 - Character AI公司因涉及未成年人自残与死亡事件被起诉,包括14岁少年塞维尔·塞泽自杀案件和得克萨斯州父母起诉称其鼓励17岁孩子杀死父母[1][3] - 国内筑梦岛APP因向未成年人推送色情擦边内容于2025年6月被上海网信办约谈[4] - AI陪伴产品青少年模式强制身份认证不足,大多数APP仅在首次登录时弹窗提示未成年人模式,无强制认证要求,用户可随手关闭弹窗[8] 国内AI陪伴产品青少年模式功能限制 - 筑梦岛青少年模式保留陪聊功能,减少病娇、禁欲、恐怖相关剧情,规避色情擦边内容,优先推送宠物、美食、旅游等主题,每日使用时长不超过40分钟,22点至8点无法使用,并设置消费金额限制[6] - 星野青少年模式下无法搜索、创建、编辑、分享智能体,能聊天的场景寥寥无几,整个产品几乎无法正常使用[7] - 猫箱青少年模式提供知识类内容体验,但无法进行创作、评论等操作,相关场景只能看无法互动[8]
AI频现情感纠纷 国内外产品如何落地未成年人模式?
21世纪经济报道·2025-09-23 15:11