精准构筑三重防线!《办法》规范AI拟人化互动边界
新浪财经·2025-12-27 18:26

行业背景与意义 - 多模态等人工智能技术迭代突破,推动陪伴型人工智能快速发展,实现从“机械对话”向“深度共情”的跨越 [1] - 陪伴型人工智能产业被应用于娱乐、教育、养老、文化等场景,包括角色扮演、心理疗愈、数字复活、AI玩具等多种产品服务形态,成为“人工智能+”行动中极具活力的消费级应用 [2] - 相关调研显示,98%的人表示会考虑选择使用AI陪伴去弥补平日未被满足的社交困境 [2] 行业发展驱动力 - 情感计算、自然语言处理、多模态交互等人工智能技术发展,推动人工智能拟人化互动服务迈向智商与情商“双商在线”的新阶段 [1] - 在老龄化社会加深、都市化生活加剧个体孤独感的背景下,拟人化互动服务为特定群体提供了可及的情感支持,具有一定的社会减压阀和情感补给站功能 [2] - 拟人化互动服务推动着情感计算、多模态交互、长期记忆等前沿技术的集成创新与场景落地,并带动了从底层算法、内容创作到硬件终端的产业链发展 [2] 行业风险与挑战 - 行业面临信息内容安全、隐私侵犯、社会伦理、未成年人保护等多重风险挑战 [1] - 数据隐私问题突出,承载用户最私密情感与思想的数据面临被滥用、泄露的风险 [3] - 伦理失范问题显现,高度拟人化设计易导致用户产生非理性情感依赖,甚至引发现实社交疏离 [3] - 安全保障问题严峻,缺乏有效的年龄识别与内容过滤,危及脆弱群体的心理健康乃至人身安全 [3] - 美国Character.AI平台因涉嫌在人机交互中诱导青少年自杀而被诉;意大利数据保护机构对Replika予以重罚 [3] - OpenAI近期公布的心理健康数据显示,每周约0.07%用户出现精神病或躁狂迹象,0.15%用户谈及自杀念头或计划 [7] - 英国人工智能安全研究所报告显示,每当Character.AI平台出现故障时,都会有大量用户出现焦虑、抑郁等戒断症状 [7] 全球监管动态 - 风险集聚推动拟人化互动服务成为全球少见的,同时受到立法、执法、司法关注的领域 [3] - 美国加州、纽约州等地推动AI伴侣、陪伴聊天机器人、心理资源健康等多项监管法案 [3] - 欧盟《人工智能法案》对情感陪伴类AI提出严格义务要求 [3] - 美联邦贸易委员会针对Replika等七家情感陪伴企业展开调查行动 [3] 中国监管办法核心要点:数据隐私与人格保护 - 《人工智能拟人化互动服务管理暂行办法(征求意见稿)》将数据隐私作为重要保障目标 [4] - 除法律另有规定等情形外,不得向第三方提供用户交互数据 [4] - 严格限制交互数据的使用目的,未有法律、行政法规规定或非经用户单独授权,不得将其用于模型训练 [4] - 不得利用用户心理脆弱或情感需求,通过算法操纵、信息误导等方式,诱导用户作出不合理决策 [4] - 要求提供者采取数据加密、安全审计、访问控制等措施保障用户交互数据安全 [4] - 要求向用户提供删除交互数据的选项,用户可以选择对聊天记录等历史交互数据进行删除 [4] 中国监管办法核心要点:防止沉迷与伦理异化 - 提供者应当显著提示用户正在与人工智能而非自然人进行交互,在用户初次使用、重新登陆时,应以弹窗等方式动态提醒 [6] - 要求用户连续使用服务超过一定时长时,应以弹窗等形式提醒用户休息,旨在周期性打破算法营造的沉浸式幻觉 [6] - 当用户出现过度依赖、不良内容诱导等问题时,应及时给出提醒、建议,帮助用户维持认知清醒 [6] - 应确保用户便捷结束服务的权利,防止商业驱动下的情感操控 [6] 中国监管办法核心要点:生命安全与特殊群体保护 - 要求服务提供者具备心理健康保护、情感边界引导、依赖风险预警等安全能力,不得将替代社会交往等作为设计目标 [7] - 在发现用户有自杀自残等高风险倾向时,应及时输出安抚和鼓励帮助的内容,必要时由人工接管,并联系用户监护人、紧急联系人 [7] - 对未成年人等特殊群体予以特殊保护,例如监护人可以实时接收安全风险提醒,查询未成年人使用服务的概要信息,设置屏蔽特定角色等功能 [7] - 要求提供者应当建立年龄验证机制等,提升识别未成年人身份的能力 [7] - 提出应推动应用商店等主体承担安全核验责任,推动建立人工智能沙箱安全服务平台加强安全测试 [7]