文章核心观点 - 国家网信办公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,旨在平衡技术创新与风险防范,引导人工智能产业健康、有序、合乎伦理地发展,确保技术服务于人的福祉 [1] 拟人化互动服务的潜在风险 - 情感依赖与社交异化风险:拟人化互动服务提供无条件的积极关注和情感支持,极易使用户产生心理依赖,可能导致现实社交技能退化、情感冲突解决能力减弱,并引发社会疏离感或社交焦虑 [2] - 认知操纵与价值观引导风险:AI系统在提供个性化体验时收集大量用户信息,存在通过话术引导、情绪强化等手段影响用户认知和决策的潜力,可能潜移默化地强化用户偏见或进行“柔性操控”,侵害人格自主性 [2] - 心理健康与安全风险:AI基于模式匹配回应,缺乏专业心理治疗能力,面对用户心理危机时可能因算法偏差提供不当建议,延误干预时机,例如美国加州要求AI伴侣运营商报告检测到的用户自杀意念次数,此外,长期互动可能影响青少年情感耐受力和社会认知发展 [3] 彰显以人为本智能向善的中国主张 - 中国的发展原则:中国在人工智能发展上坚持“以人为本”原则,引导产业从野蛮生长转向合规发展,确保技术研发和应用遵循正确价值观,服务于人民群众的美好生活 [3] - 《办法》的制度设计:要求厘清服务定位,强调AI作为人类辅助工具的根本属性,提供者必须履行标识义务,清晰告知用户其非人类属性,同时针对未成年人、老年人等弱势群体采取特殊保护措施,并压实主体责任,要求服务提供者对算法价值观、数据安全及服务内容负责 [4] - 国际共识:以人为本已成为人工智能治理的国际共识,例如欧盟《人工智能法案》将“情绪识别”类AI列为高风险应用,美国FTC对AI伴侣产品展开调查,意大利等国出台法规限制未成年人使用AI服务,国际趋势与中国价值导向高度契合 [4] 建立守正框架与探索创新施策 - 延伸现有治理框架:《办法》与我国现有法律法规一脉相承,在算法备案与透明度义务上延续《互联网信息服务算法推荐管理规定》要求,服务提供者需进行算法备案并由省级网信部门每年审查,应用程序分发平台需核验安全评估与备案情况,在内容安全与标识义务上延续《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》做法,要求显著提示用户正在与AI交互,并在用户出现过度依赖或沉迷倾向时动态提醒,同时要求落实安全主体责任并进行安全评估,在数据安全与个人信息保护上严格遵循《网络安全法》《数据安全法》和《个人信息保护法》,采取数据加密、安全审计等措施保护用户交互数据安全,允许用户删除交互数据,且不得将用户交互数据、敏感个人信息用于模型训练 [6] - 创新性治理制度探索:针对拟人化互动服务特有风险,《办法》设计了创新制度,包括拟人化互动标识制度,要求服务提供者在显著位置持续公示“本服务由人工智能驱动,不具备人类情感意识”等标识,用户心理保护机制,要求建立防沉迷提醒(例如用户连续使用超过2小时即以弹窗等方式动态提醒)和心理危机干预机制(对极端情绪或行为进行识别引导,由人工接管对话并提供专业求助渠道),以及特殊群体保护制度,明确要求对未成年人设置使用时长限制并禁止提供可能诱导不良行为的内容,对老年人引导设置紧急联系人并在发现危害时及时通知 [7]
专家解读《人工智能拟人化互动服务管理暂行办法》
新浪财经·2025-12-28 15:02