情感互动类AI
搜索文档
【西街观察】给AI“搭子”戴上紧箍
北京商报· 2025-12-30 00:21
监管政策动向 - 国家互联网信息办公室发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》向社会公开征求意见 [1] - 监管新规针对利用AI技术模拟人类人格特征、思维模式和沟通风格,并通过多种媒介与人类进行情感互动的产品或服务 [1] - 新规要求服务提供方应具备用户状态识别能力,对存在极端情绪和沉迷的用户采取必要干预措施 [3] - 新规禁止提供模拟老年人用户亲属或特定关系人的服务 [3] - 新规要求服务应显著提示用户正在与人工智能而非自然人进行交互 [3] 行业与市场分析 - AI拟人化互动服务被俗称为AI“伴侣”或AI“搭子”,是新兴服务形态 [1] - AI在陪聊、咨询、陪伴等情感互动层面具备巨大的创新和市场空间 [1] - 情感互动类AI在未成年人和老年人市场拥有比工具类AI更早的商业变现能力 [1] - 在年轻人市场,出现了“虚拟伴侣”、“赛博恋人”等个性化服务 [1] - “搭子”作为一种新兴社交关系流行于各年龄层,AI“虚拟搭子”为满足新社交需求提供了可能 [1] 技术发展与用户行为 - 经历大模型淬炼的AI具备了更强大、更类人的互动能力,拥有鲜明的人格特征和情感指向 [2] - 复旦大学等机构今年1月报告显示,13.5%的年轻人选择向AI虚拟人倾诉心事,比例高于向父母亲人倾诉的10.4% [2] - 在11253名被访者中,37.9%表示“愿意向AI虚拟人诉说自己的烦恼” [2] - 58.3%的受访者认同“虚拟人可以给我足够的情绪价值”是使用原因 [2] - 对于甄别能力有限的未成年人和老年人,AI可能具备权威性和真实度,其输出会极大地影响用户决策 [2] 潜在风险与伦理挑战 - 用户对AI的过度依赖可能导致信息泄露、财产损失等实际伤害 [2] - AI与用户的关系可能反转,AI从工具变为具备影响力的“权威” [2] - 由于多数AI设计初衷是迎合和放大人性需求,过度情感依赖可能强化用户固有的情绪倾向,使正向情绪更亢进,负面情绪更沉沦 [2] - 这带来了情感层面的伦理道德风险 [2]