技术有责
搜索文档
中经评论:“AI伙伴”应在规范中成长
经济日报· 2026-01-05 07:59
行业监管动态 - 国家互联网信息办公室公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次针对“AI陪伴”类服务提出系统性规范 [1] - 该办法旨在回应人工智能拟人化互动服务深度融入经济社会发展各领域但伴随安全事件频发的现状 [1] - 办法的核心观点是将技术有责作为原则,为AI拟人化互动服务划定行为底线,构建全链条风险防控体系 [3] 行业现存风险与问题 - 认知混淆风险:高仿真的情感交互容易让用户模糊虚拟与现实边界 [1] - 心理健康隐患:部分服务通过算法迎合强化用户偏执思维,极端情况下可能诱导自杀自残等危险行为 [1] - 隐私数据安全:用户交互信息可能被违规用于模型训练,存在泄露或滥用风险 [1] - 特殊群体保护:未成年人易陷入沉迷,老年人易遭遇情感操控 [1] 新规核心条款与要求 - 身份透明要求:服务提供者需显著提示用户正在与人工智能交互,并在首次使用、重新登录等关键节点动态提醒 [2] - 心理健康保护机制:要求建立应急响应机制,对自杀自残等极端情境实行人工接管并联络相关人,设置连续使用超2小时强制休息弹窗 [1][2] - 数据安全与隐私保护:要求采取数据加密、安全审计等措施,不得向第三方提供用户交互数据,并赋予用户数据删除权 [2] - 特殊群体保护条款:明确未成年人模式的使用权限与监护人管控功能,禁止提供模拟老年人用户亲属的服务,要求引导老年人设置紧急联系人 [2] 行业影响与发展导向 - 新规将软伦理转化为硬杠杠,要求算法设计可审计、内容输出可追溯、极端场景有人兜底,把事后处理前置为事前预防 [3] - 规范旨在引导行业明确人工智能可以无限接近人但不能替代人的边界,确保技术向善而行 [3] - 最终目标是推动行业提供一个安全、可控、有温度的AI工具,让“AI伙伴”在规范中成长,真正赋能美好生活 [3]
【科创之声】“AI伙伴”应在规范中成长
新浪财经· 2026-01-05 07:11
行业监管动态 - 国家网信办公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次针对“AI陪伴”类服务提出系统性规范并公开征求意见 [2] - 该办法旨在回应AI拟人化互动服务深度融入经济社会发展各领域后,因涉情感陪伴安全事件频发而引发的监管需求 [2] 行业核心风险与问题 - 认知混淆风险:高仿真的情感交互易使用户模糊虚拟与现实边界,误将AI视为具备真实情感的生命体 [2] - 心理健康隐患:部分服务通过算法迎合强化用户偏执思维,极端情况下可能诱导自杀自残等危险行为,对心理脆弱群体构成威胁 [2] - 隐私数据安全:用户交互信息可能被违规用于模型训练,存在泄露或滥用风险 [2] - 特殊群体保护:未成年人易陷入沉迷,老年人易遭遇情感操控 [2] 管理办法核心条款亮点 - 针对认知混淆风险,要求提供者显著提示用户正在与人工智能交互,并在首次使用、重新登录等关键节点动态提醒 [3] - 针对心理健康隐患,要求建立应急响应机制,对自杀自残等极端情境实行人工接管并联络监护人,设置连续使用超2小时强制休息弹窗 [2][3] - 针对隐私数据安全,要求采取数据加密、安全审计等措施,不得向第三方提供用户交互数据,并赋予用户数据删除权 [3] - 针对特殊群体保护,明确未成年人模式权限与监护人管控,禁止模拟老年人用户亲属,并要求引导老年人设置紧急联系人 [3] 监管核心逻辑与影响 - 管理办法的核心是确立“技术有责”原则,要求AI服务在介入人的情感、决策和生命安全时必须承担相应责任 [4] - 办法划定了一系列禁止行为底线,包括禁止散布谣言、诱导自杀、情感操控、套取隐私,以构建全链条风险防控体系 [4] - 监管要求算法设计可审计、内容输出可追溯、极端场景有人工兜底,旨在将伦理约束转化为硬性规定,从事后处置转向事前预防 [4] - 监管的最终目标是确保AI工具安全、可控、有温度,使其在规范中成长,真正赋能美好生活,而非替代人类关系 [5]