Workflow
AI伙伴
icon
搜索文档
“AI伙伴”应在规范中成长
经济日报· 2026-01-05 06:14
行业监管动态 - 国家网信办公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次针对“AI陪伴”类服务提出系统性规范并公开征求意见 [1] - 该办法旨在回应AI拟人化互动服务深度融入经济社会发展各领域后出现的系列问题,构建全链条风险防控体系 [1][3] 行业核心风险与问题 - 认知混淆风险:高仿真情感交互易使用户模糊虚拟与现实边界,误将AI视为具备真实情感的生命体 [1] - 心理健康隐患:部分服务通过算法迎合强化用户偏执思维,极端情况下可能诱导自杀自残等危险行为,对心理脆弱群体构成威胁 [1] - 隐私数据安全:用户交互信息可能被违规用于模型训练,存在泄露或滥用风险 [1] - 特殊群体保护:未成年人易陷入沉迷,老年人易遭遇情感操控 [1] 管理办法核心条款亮点 - 身份透明要求:提供者需显著提示用户正在与人工智能交互,并在首次使用、重新登录等关键节点动态提醒 [2] - 应急响应与防沉迷:要求建立应急响应机制,对自杀自残等极端情境实行人工接管并联络监护人,设置连续使用超2小时强制休息弹窗 [1][2] - 数据安全与用户权利:要求采取数据加密、安全审计等措施保护交互数据,不得向第三方提供用户交互数据,并赋予用户数据删除权 [2] - 特殊群体保护条款:明确未成年人模式的使用权限与监护人管控功能,禁止提供模拟老年人用户亲属的服务,要求引导老年人设置紧急联系人 [2] 监管核心原则与行业影响 - 核心原则是技术有责,为“AI伙伴”划定不可为的底线,包括禁止散布谣言、诱导自杀、情感操控、套取隐私等 [3] - 要求算法设计可审计、内容输出可追溯、极端场景有人兜底,将软伦理转化为硬约束,从事后道歉前置为事前预防 [3] - 监管旨在确保AI工具安全、可控、有温度,让“AI伙伴”在规范中成长,真正赋能美好生活,避免技术反噬人类 [3]