政策核心内容 - 《可能影响未成年人身心健康的网络信息分类办法》由国家网信办、国家新闻出版署、教育部等八部门联合发布,将于今年3月1日起施行[1] - 该《办法》首次将影响未成年人身心健康的网络信息细化为四大类,旨在让网络监管和治理“清晰可判”,为未成年人筑牢网络安全屏障[1] 风险信息四大分类 - 第一类:可能引发或诱导未成年人模仿不良行为的信息,涵盖性暗示、网络暴力、诱导非理性追星打赏等[1] - 第二类:可能对未成年人价值观造成负面影响的内容,涵盖炫富拜金、畸形审美、“读书无用论”等错误观念[3] - 第三类:不当使用未成年人形象的信息,涵盖利用未成年人摆拍牟利、通过恶搞未成年人等方式博取关注[5] - 第四类:不当披露未成年人个人信息的行为,涵盖未经监护人同意不得展示不满十四周岁未成年人的学习、生活等场景[7] 政策意义与专家解读 - 精细化的分类将以往模糊不清的内容清晰界定,为平台、监管、家长和学校提供了明确的判定标准[9] - 分类基于网信部门多年网络生态治理实践,覆盖传统风险及新业态隐患,既守住法律底线也划定道德红线,为后续监管执法提供明确依据[11] - 《办法》将原则性的法律表述转化为可识别、可操作、可落地的具体规则,有助于实现未成年人网络保护的精细化和协同化[14] - 分类标准源于“清朗”系列专项行动积累的高频问题及平台实践,系统化梳理能有效破解跨平台规避治理的难题,确保监管无盲区[20] - 明确的分类标准有助于家长和老师快速辨识网络风险,开展有针对性的教育和干预,提升全社会共识并促进协同共治[24] 对网络平台及内容生产者的要求 - 网络平台不得在首页首屏、热搜、弹窗、榜单等醒目位置呈现可能影响未成年人身心健康的信息[12] - 平台须建立健全安全管理制度,严禁通过算法推荐、生成式人工智能等新技术向未成年人推送风险信息[12] - 专门以未成年人为服务对象的网络产品和服务,全面禁止制作、传播相关不良信息[12] - 内容生产者需在信息展示前,通过文字提示、通用符号等形式在显著位置进行标注[16] - 平台需提供专属标识功能,引导用户规范提示,并对不同信息载体的提示位置(如文本起始/末尾、视频起始画面)设定明确标准[16] - 平台在进行内容审核时有了可操作的负面清单,必须根据清单建立相应的审核规则和技术识别模型[22] 协同治理与未来方向 - 政策标志着我国未成年人网络保护进入精细化、系统化治理阶段,旨在构建全方位、立体化的网络安全防护网[20] - 将“清朗行动”的经验制度化,为监管部门提供了更加清晰的处罚处置依据,针对如未成年人开盒、变脸、网红儿童诱导打赏、饭圈乱象等突出问题[22] - 建议相关部门重点查处平台主体责任落实不到位、恶意传播不良信息等行为[26] - 建议畅通平台公众举报渠道,鼓励家长、教师及社会公众参与监督,形成政府监管、企业履责、社会监督、青少年自律的多方治理合力[26]
如何织密未成年人网络保护网、阻断未成年人网络风险?八部门发布“办法”→
央视网·2026-01-25 12:18