Workflow
生成式AI“未保”怎么做?专家:建保护模式,平衡管控体验
南方都市报·2025-06-26 15:45

生成式AI在未成年人中的渗透与风险 - 生成式AI已迅速进入未成年人数字生活,渗透学习辅助、社交陪伴等场景,但存在生成不良图像、提供不靠谱解题答案等隐忧 [1] - 6-19岁网民使用生成式AI产品的比例占整体网民的21.1%,智能问答、AI写作/绘画、AI社交聊天成为未成年人日常 [2] 未成年人保护政策与框架建设 - 《向未成年人提供生成式人工智能服务安全指引》首次提出覆盖"训练数据-模型训练-场景应用-服务运营"的全生命周期安全管理框架 [2][3] - 北京师范大学发布CI-STEP指标评价模型,涵盖6个维度的未成年人保护评估体系 [3] - 《未成年人网络保护条例》要求网络平台提供未成年人模式或专区,《指引》将其纳入全生命周期管理 [4] 未成年人模式设计核心原则 - 需防范错误偏见及不良信息、隐私数据泄露、沉迷与过度依赖三大风险 [2][4] - 功能设计需包含便捷操作(时段/时长/内容管控)、分龄推荐(3/8/12/16/18岁区间)、内容安全审核机制 [5][6] - 应实现身份识别、家长管控(时长限制/使用报告)、高风险对话干预(自杀倾向预警)、一键举报等功能 [6] 行业实践现状与改进方向 - 当前多数AI应用(如智能问答、AI陪聊)仅需手机号注册即可使用,部分青少年模式仍保留成人化内容 [4] - AI社交/陪聊类应用因涉及情感诱导和付费解锁机制,被专家列为重点监管场景 [5] - 需平衡保护与体验,在数据训练阶段植入未成年人保护机制,强化正向价值导向 [7]