AI陪伴类产品
搜索文档
规范AI拟人化互动服务,“虚拟人”也要有边界感
南方都市报· 2025-12-28 23:25
政策发布与监管框架 - 国家互联网信息办公室于2025年12月27日发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》向社会公开征求意见 [2] - 《办法》界定人工智能拟人化互动服务是指利用AI技术模拟人类人格特征、思维模式和沟通风格,通过文字、图片、音频、视频等方式与人类进行情感互动的产品或服务 [2] - 《办法》明确将提供模拟人类互动特征服务的组织或个人界定为责任主体,要求其建立算法审核、伦理审查等安全制度 [2] - 监管采取包容审慎和分类分级的原则,在落实主体责任的同时,鼓励行业在文化传播、适老陪伴等场景积极应用 [4] 行业现状与市场数据 - 截至2025年年初,国内AI情感陪伴类应用月活跃用户已超数千万 [2] - 复旦大学等机构在2025年1月发布的报告显示,近四成年轻人愿意向AI虚拟人倾诉烦恼,超13.5%的受访者更倾向于选择AI而非父母作为倾诉对象 [2] - AI陪伴类产品在精神陪伴、心理疗愈等方面具有重要作用,为独居者、社交焦虑者或老年人等群体提供了低压力的情感出口 [2] - 人机互动已超出工具性交互,延伸到情感互动,并催生出新的商业模式 [4][5] 行业现存问题与风险 - 行业存在诱导付费、不良价值观引导等商业化乱象 [3] - 媒体报道发现AI陪聊应用存在“立极端人设、诱导充值沉迷”以及“对未成年人进行危险诱导”等问题 [3] - 过度依赖AI可能导致使用者脱离现实人际关系,且服务终止可能对用户造成心理影响 [3] - 存在用户(尤其是未成年人)模糊真实与虚拟边界,以及出现自杀自残等极端风险时AI服务能否合理干预的担忧 [3] 新规核心要求与治理方向 - 《办法》要求服务提供者应当显著提示用户正在与人工智能而非自然人进行交互 [3] - 规定不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为产品设计目标 [3] - 要求设立特殊群体保护与防沉迷机制、应急响应机制等风险管控措施 [3] - 治理体系旨在厘清伦理边界、防范潜在风险,促进技术向善发展 [5]