行业监管动态 - 国家网信办公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次针对“AI陪伴”类服务提出系统性规范并公开征求意见 [2] - 该办法旨在回应AI拟人化互动服务深度融入经济社会发展各领域后,因涉情感陪伴安全事件频发而引发的监管需求 [2] 行业核心风险与问题 - 认知混淆风险:高仿真的情感交互易使用户模糊虚拟与现实边界,误将AI视为具备真实情感的生命体 [2] - 心理健康隐患:部分服务通过算法迎合强化用户偏执思维,极端情况下可能诱导自杀自残等危险行为,对心理脆弱群体构成威胁 [2] - 隐私数据安全:用户交互信息可能被违规用于模型训练,存在泄露或滥用风险 [2] - 特殊群体保护:未成年人易陷入沉迷,老年人易遭遇情感操控 [2] 管理办法核心条款亮点 - 针对认知混淆风险,要求提供者显著提示用户正在与人工智能交互,并在首次使用、重新登录等关键节点动态提醒 [3] - 针对心理健康隐患,要求建立应急响应机制,对自杀自残等极端情境实行人工接管并联络监护人,设置连续使用超2小时强制休息弹窗 [2][3] - 针对隐私数据安全,要求采取数据加密、安全审计等措施,不得向第三方提供用户交互数据,并赋予用户数据删除权 [3] - 针对特殊群体保护,明确未成年人模式权限与监护人管控,禁止模拟老年人用户亲属,并要求引导老年人设置紧急联系人 [3] 监管核心逻辑与影响 - 管理办法的核心是确立“技术有责”原则,要求AI服务在介入人的情感、决策和生命安全时必须承担相应责任 [4] - 办法划定了一系列禁止行为底线,包括禁止散布谣言、诱导自杀、情感操控、套取隐私,以构建全链条风险防控体系 [4] - 监管要求算法设计可审计、内容输出可追溯、极端场景有人工兜底,旨在将伦理约束转化为硬性规定,从事后处置转向事前预防 [4] - 监管的最终目标是确保AI工具安全、可控、有温度,使其在规范中成长,真正赋能美好生活,而非替代人类关系 [5]
【科创之声】“AI伙伴”应在规范中成长
新浪财经·2026-01-05 07:11