《办法》:建立身份透明制度,划定拟人化安全红线
新浪财经·2025-12-27 19:31

文章核心观点 - 中国出台《人工智能拟人化互动服务管理暂行办法(征求意见稿)》旨在促进该领域有序发展并引领“负责任创新” 该《办法》通过构建精准治理体系、落实包容审慎监管 为行业健康发展提供制度支撑 并贡献应对前沿挑战的“中国方案” [1][7] 政策制定的战略与理念 - 政策制定锚定国家战略方向 坚持科学立法、分类分级监管、构建全链条治理体系及形成多元共治格局 以彰显治理的前瞻性、精准性、系统性与协同性 [2] - 政策以“负责任创新”理念为指引 明确人工智能创新活动的责任边界 旨在保障人的主体性地位 维护真实人际关系的价值 防范技术滥用对人格尊严、社会信任与伦理秩序的冲击 [2] 针对的核心风险与治理重点 - 《办法》精准识别并聚焦由“拟人化”和“情感交互”特征衍生的风险 以“人机边界模糊”为治理重点 构建多维度风险防控体系 [3] - 建立身份透明制度 以显著标识义务为核心划定拟人化安全红线 旨在防范认知混淆、信任侵蚀、人格权侵害及伦理越界等风险 并禁止服务替代或扭曲真实人际关系 [3] - 加强特殊群体保护并建立防沉迷机制 重点关注未成年人及老年人等群体在拟人化交互中易陷入情感依赖的风险 以体现人文关怀与实质公平 [4] - 强调对用户交互信息(特别是情感类个人信息)的严格保护 施加更严格的目的限制、安全存储与使用禁令 以防范心理操控、待遇歧视及情感勒索等风险 [4] 治理体系与监管方法 - 践行系统治理思维 将责任设计贯穿于模型设计、训练、应用部署前安全评估及服务运营中的风险动态处置等关键节点 实现全链条风险精准防控 [6] - 强调协同共治 鼓励行业组织制定标准并加强自律 整合政府、企业、行业组织及社会公众的治理资源以形成合力 [6] - 落实包容审慎监管思路 首次在部门规章层面明确探索“监管沙盒”等弹性监管工具 允许企业在监管指导下开展创新试点与安全测试 以适应技术迭代快、应用场景多的特点 [7]

《办法》:建立身份透明制度,划定拟人化安全红线 - Reportify