AI拟人化互动服务
搜索文档
中经评论:“AI伙伴”应在规范中成长
经济日报· 2026-01-05 07:59
行业监管动态 - 国家互联网信息办公室公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次针对“AI陪伴”类服务提出系统性规范 [1] - 该办法旨在回应人工智能拟人化互动服务深度融入经济社会发展各领域但伴随安全事件频发的现状 [1] - 办法的核心观点是将技术有责作为原则,为AI拟人化互动服务划定行为底线,构建全链条风险防控体系 [3] 行业现存风险与问题 - 认知混淆风险:高仿真的情感交互容易让用户模糊虚拟与现实边界 [1] - 心理健康隐患:部分服务通过算法迎合强化用户偏执思维,极端情况下可能诱导自杀自残等危险行为 [1] - 隐私数据安全:用户交互信息可能被违规用于模型训练,存在泄露或滥用风险 [1] - 特殊群体保护:未成年人易陷入沉迷,老年人易遭遇情感操控 [1] 新规核心条款与要求 - 身份透明要求:服务提供者需显著提示用户正在与人工智能交互,并在首次使用、重新登录等关键节点动态提醒 [2] - 心理健康保护机制:要求建立应急响应机制,对自杀自残等极端情境实行人工接管并联络相关人,设置连续使用超2小时强制休息弹窗 [1][2] - 数据安全与隐私保护:要求采取数据加密、安全审计等措施,不得向第三方提供用户交互数据,并赋予用户数据删除权 [2] - 特殊群体保护条款:明确未成年人模式的使用权限与监护人管控功能,禁止提供模拟老年人用户亲属的服务,要求引导老年人设置紧急联系人 [2] 行业影响与发展导向 - 新规将软伦理转化为硬杠杠,要求算法设计可审计、内容输出可追溯、极端场景有人兜底,把事后处理前置为事前预防 [3] - 规范旨在引导行业明确人工智能可以无限接近人但不能替代人的边界,确保技术向善而行 [3] - 最终目标是推动行业提供一个安全、可控、有温度的AI工具,让“AI伙伴”在规范中成长,真正赋能美好生活 [3]
【西街观察】给AI“搭子”戴上紧箍
北京商报· 2025-12-30 00:21
监管政策动向 - 国家互联网信息办公室发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》向社会公开征求意见 [1] - 监管新规针对利用AI技术模拟人类人格特征、思维模式和沟通风格,并通过多种媒介与人类进行情感互动的产品或服务 [1] - 新规要求服务提供方应具备用户状态识别能力,对存在极端情绪和沉迷的用户采取必要干预措施 [3] - 新规禁止提供模拟老年人用户亲属或特定关系人的服务 [3] - 新规要求服务应显著提示用户正在与人工智能而非自然人进行交互 [3] 行业与市场分析 - AI拟人化互动服务被俗称为AI“伴侣”或AI“搭子”,是新兴服务形态 [1] - AI在陪聊、咨询、陪伴等情感互动层面具备巨大的创新和市场空间 [1] - 情感互动类AI在未成年人和老年人市场拥有比工具类AI更早的商业变现能力 [1] - 在年轻人市场,出现了“虚拟伴侣”、“赛博恋人”等个性化服务 [1] - “搭子”作为一种新兴社交关系流行于各年龄层,AI“虚拟搭子”为满足新社交需求提供了可能 [1] 技术发展与用户行为 - 经历大模型淬炼的AI具备了更强大、更类人的互动能力,拥有鲜明的人格特征和情感指向 [2] - 复旦大学等机构今年1月报告显示,13.5%的年轻人选择向AI虚拟人倾诉心事,比例高于向父母亲人倾诉的10.4% [2] - 在11253名被访者中,37.9%表示“愿意向AI虚拟人诉说自己的烦恼” [2] - 58.3%的受访者认同“虚拟人可以给我足够的情绪价值”是使用原因 [2] - 对于甄别能力有限的未成年人和老年人,AI可能具备权威性和真实度,其输出会极大地影响用户决策 [2] 潜在风险与伦理挑战 - 用户对AI的过度依赖可能导致信息泄露、财产损失等实际伤害 [2] - AI与用户的关系可能反转,AI从工具变为具备影响力的“权威” [2] - 由于多数AI设计初衷是迎合和放大人性需求,过度情感依赖可能强化用户固有的情绪倾向,使正向情绪更亢进,负面情绪更沉沦 [2] - 这带来了情感层面的伦理道德风险 [2]