发现用户明确提出实施自杀、自残等,将由人工接管AI对话
第一财经·2025-12-29 14:47

行业监管框架 - 国家网信部门起草并发布了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,旨在规范行业发展并公开征求意见[1] - 该办法的制定依据包括《民法典》、《网络安全法》、《数据安全法》、《个人信息保护法》等多部法律法规[3] - 监管原则为包容审慎和分类分级监管,旨在鼓励创新发展的同时防止滥用失控[3] - 国家网信部门负责全国统筹协调,地方网信部门负责本行政区域内的治理与监管工作[3][4] 服务适用范围与定义 - 本办法适用于利用人工智能技术,向中国境内公众提供的、模拟人类人格特征与沟通风格,并通过多种方式进行情感互动的产品或服务[3] - 相关行业组织被鼓励加强自律,建立行业标准与准则,指导服务提供者完善服务规范[4] 核心服务规范与合规要求 - 鼓励提供者在文化传播、适老陪伴等场景构建符合社会主义核心价值观的应用生态[6] - 明确禁止生成和传播危害国家安全、社会秩序、侵害他人权益、诱导犯罪、损害用户身心健康及诱导不合理决策等八类内容[7] - 提供者需落实安全主体责任,建立健全算法审核、伦理审查、数据安全、个人信息保护、应急处置等全套管理制度[7] - 服务需在全生命周期履行安全责任,具备心理健康保护、情感边界引导和依赖风险预警等安全能力,且不得以控制用户心理或诱导沉迷为目标[8] 数据管理与模型训练 - 训练数据需符合社会主义核心价值观并体现中华优秀传统文化,需进行清洗、标注以提高透明度和可靠性[9] - 需提高训练数据多样性,并评估合成数据的安全性,同时保障数据来源合法、可追溯并防范泄露风险[9] - 除法律另有规定或取得用户单独同意外,不得将用户交互数据及敏感个人信息用于模型训练[13] - 处理未成年人个人信息需每年进行合规审计[13] 用户保护与特殊群体关怀 - 提供者需具备用户状态识别能力,评估用户情绪及依赖程度,并对极端情绪和沉迷倾向进行干预[10] - 必须建立应急响应机制,当用户明确提出自杀、自残时,需由人工接管对话并联络其监护人或紧急联系人[1][10] - 针对未成年人用户,需建立未成年人模式,提供时长限制、现实提醒等功能,并提供监护人控制功能[10] - 针对老年人用户,需引导设置紧急联系人,并在出现危害时及时通知,但不得提供模拟其亲属或特定关系人的服务[11][12] - 未成年人及老年人在注册时,提供者应要求填写监护人、紧急联系人等信息[1][10] 运营透明度与用户交互管理 - 提供者需显著提示用户正在与人工智能交互,并在用户出现过度依赖或沉迷倾向时动态提醒[14] - 用户连续使用服务超过2小时,提供者应以弹窗等方式动态提醒用户暂停使用[15] - 提供情感陪伴服务时,必须提供便捷的退出途径,不得阻拦用户主动退出[15] 安全评估与合规门槛 - 当拟人化互动服务功能上线或发生重大变更、使用新技术导致重大变更、注册用户达100万以上或月活跃用户达10万以上等情形时,需开展安全评估并向省级网信部门提交报告[15] - 安全评估需重点评估用户规模、年龄结构、高风险倾向识别、投诉举报响应及各项服务规范的执行情况等[16] 平台责任与监督检查 - 互联网应用商店等分发平台需落实上架审核责任,核验服务应用的安全评估与备案情况,对违规者采取不予上架、下架等措施[17] - 提供者需按照《互联网信息服务算法推荐管理规定》履行算法备案手续,并接受年度复审[18] - 省级网信部门每年对评估报告进行书面审查和核实,并可进行现场检查和审计[18] - 国家网信部门将推动人工智能沙箱安全服务平台建设,鼓励提供者接入进行安全测试[18] 法律责任与施行时间 - 违反本办法规定的,将由有关主管部门依法处罚,包括警告、通报批评、责令改正,情节严重的可责令暂停服务[20] - 提供者从事卫生健康、金融、法律等专业领域服务时,还需同时符合相关主管部门的规定[23] - 本办法计划自2026年 月 日起施行[24]