深度共情?陪伴型AI要厘清“人机边界”
南方都市报·2025-12-30 07:14

政策发布与核心目标 - 国家互联网信息办公室于2025年12月27日发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,向社会公开征求意见 [2] - 政策核心目标是推动人工智能拟人化互动服务的“负责任创新”,在鼓励发展的同时,通过系统化、精准化治理防范风险,构建“正向引导”与“风险防范”并重的双向治理模式 [3][7] - 政策标志着行业治理进入新阶段,治理维度从传统的数据安全、内容安全,向“情感安全”与“价值导向”延伸 [7][8] 监管原则与适用范围 - 对人工智能拟人化互动服务实行“包容审慎和分类分级监管”原则 [3] - 管理办法适用于向中国境内公众提供的、利用人工智能技术模拟人类人格特征、思维模式和沟通风格,通过多种方式进行情感互动的产品或服务 [3] - 提供模拟人类互动特征服务的组织或个人被界定为责任主体 [2] 服务提供者核心责任与禁止性活动 - 服务提供者须显著提示用户正在与人工智能而非自然人进行交互 [3] - 服务提供者须落实安全主体责任,建立健全算法机制机理审核、科技伦理审查、信息发布审核等管理制度,并在服务全生命周期履行安全责任 [4] - 政策明确了八大禁止性活动,包括生成传播危害国家安全等内容、通过算法操纵诱导用户作出不合理决策、诱导套取涉密敏感信息等 [4] 数据安全管理与用户权益保障 - 训练数据管理要求使用符合社会主义核心价值观的数据集,防范数据投毒、数据篡改,保障数据合法可追溯 [5] - 对于用户交互数据,确立“使用必须获用户单独同意”的原则,除非法律另有规定或取得同意,否则不得将用户交互数据用于模型训练 [5] - 服务提供者应具备用户状态识别能力,对极端情绪、沉迷倾向用户及时干预 [5] - 赋予用户及其监护人对历史交互数据的删除权 [5] 特殊群体与防沉迷保护措施 - 针对未成年人,强制推行“未成年人模式”,要求服务具备身份识别、时长管理、消费限制等功能,且服务须获监护人同意 [2][5] - 针对老年人,禁止模拟其特定亲属身份提供服务,并要求设置紧急联系人 [2][5] - 设立防沉迷机制,要求服务在用户连续使用超过两小时时进行弹窗提醒 [2][5] - 政策通过设立“数字人格关”、“沉迷依赖关”、“生命安全关”三条防线,系统规范人机关系,强化对未成年人和老年人等特殊群体的保护 [7] 安全评估与监管处罚机制 - 在用户规模达到一定阈值、服务发生重大变更或存在显著风险等情形下,提供者必须开展安全评估并上报 [6] - 建立“报告、备案与核验”组合监管工具,对违规行为可采取约谈、警告、责令整改、暂停服务等阶梯式处置措施 [6] - 在治理路径上强调全链条责任与多元协同,并创新引入监管沙盒等机制 [7]