未成年人网络保护
搜索文档
抖音发布2025年未成年人网络保护报告:未成年人模式优质内容达680万条
21世纪经济报道· 2026-02-05 08:57
文章核心观点 - 公司发布2025年未成年人网络保护社会责任报告 系统梳理了其在产品功能升级、优质内容建设、风险防范治理及公益行动等多方面的举措与成果 旨在打造安全健康的网络环境并全方位陪伴未成年人成长 [1] 产品功能升级与科学守护 - 公司推出“未成年人陪伴计划” 迭代“亲子护航”功能 使家长具备远程开关未成年人模式、管控每日使用时长、管理订阅账号三项核心远程监护能力 有效解决异地监护难题 [2][4] - 公司在未成年人模式中创新上线“AI笔记”功能 可对知识科普类视频一键生成适配未成年人阅读习惯的知识点总结 并支持通过笔记快速跳转视频对应片段 [4] - 公司邀请八位深耕未成年人教育、心理发展、网络素养等领域的专家学者组建“未成年人保护专家顾问团” 为平台保护工作提供系统性、前瞻性的科学指导 [4] - 公司发布《抖音未成年人模式使用指南》 多路径引导家长开启保护功能 强化家校协同守护 [4] 优质内容建设与供给 - 公司对未成年人内容池进行系统性升级 聚焦“兴趣素养、知识教育、探趣百科、亲子陪伴”四大主题 目前内容池总量达680万条 日均新增约6000条知识类内容 [5] - 公司推出专属内容栏目《共赴成长·未成年人陪伴周刊》 覆盖名师讲堂、趣味科普等八大板块 已累计更新3期 收录266条内容 播放量达13.7亿次 [7] - 公司联合中国儿童中心发起“院士爷爷陪你过六一”科普直播 邀请中科院院士刘嘉麒等开展趣味直播 吸引84.4万人次观看 收获77.2万次点赞 [7] - 公司推出“未成年人互动信箱”并成立“成长陪伴团” 联合教育学者、心理专家及优质创作者 为孩子们提供学习方法、情绪管理等全方位支持 [7] 风险防范与治理 - 公司严厉打击利用未成年人形象博流量、传播不良价值观、侵害隐私权、散播色情低俗内容等行为 2025年累计清理违规内容240万条 处置违规账号8.4万余个 [8] - 公司开展暑期保护、打击利用AI生成未成年人不良内容等一系列专项治理行动 并研发出可识别危害未成年人身心健康不良内容的专属大模型 提升识别准确度和全面性 [8] - 公司明确禁止未满16周岁未成年人出镜直播 16至18周岁未成年人开播需监护人书面同意 同时升级未成年人打赏消费阻断与退款机制 [11] - 2025年 公司累计处罚5千余个诱导未成年人打赏的账号 帮助9万个家庭完成退款 [11] 线下公益行动与项目 - “益童乐园”公益项目为易地搬迁社区儿童、留守儿童等群体搭建友好空间 截至2025年底累计服务儿童超400万人次 开展活动超13万场 [1][12] - “益校计划”累计投入近2亿元 支持468所乡镇学校灾后重建 捐建144间“益童美好空间”教室 [12] - “抖音足球少年行”覆盖21个县/市、350余所学校和11.7万名乡村孩子 “抖音美育未来计划”也为乡村孩子提供音乐、美术等素质教育资源 [13] - “抖音唇腭裂关爱行动”累计帮助超4700名唇腭裂患儿 “抖音先心病关爱行动”累计帮助3000名先心病患儿重获健康 [13] - 公司联合专业机构研发了AI言语康复小程序“光合愈言” 为有言语康复需求的患儿提供免费居家训练支持 [13]
抖音2025年清理未成年人相关违规内容240万条
北京商报· 2026-02-04 21:01
公司内容治理与生态建设 - 抖音全年累计清理未成年人不良内容240万条 [1] - 平台未成年人内容池精品适龄内容总量达680万条 [1] - 平台日均新增约6000条知识类内容 [1] 公司专属内容产品运营 - 抖音专属栏目《共赴成长·未成年人陪伴周刊》累计更新3期 [1] - 该栏目共收录266条内容 [1] - 收录内容累计获得13.7亿次播放 [1]
冲上热搜!家长的这些习惯有风险……
新浪财经· 2026-02-03 12:21
文章核心观点 - 未成年人网络肖像侵权、隐私泄露等问题日益突出,形式多样且危害严重,需要平台、家长等多方合力加强保护,相关法规治理已开始跟进 [1][6][7] 多种侵权乱象 - 盗图牟利:盗图者直接搬运未成年人朋友圈照片创建假冒社交账号,通过设置“门槛费”让付费者查看朋友圈以牟利 [2] - 网恋诈骗与商业刷单:侵权者盗用未成年人照片进行网恋诈骗,或将照片用于商家虚假好评 [2] - 商业盗用肖像:服饰公司在未获授权情况下,擅自将一名未成年童模的19张肖像照片用于其网店四款童装商品的宣传页面,且法院判决生效后仍未停止使用 [4] - “泄愤报复”式侵权:因家庭纠纷,侵权者将未成年人真实姓名和照片用于社交账号,并发布造谣辱骂内容,通过关注其同学好友进行扩散,导致该未成年人遭受孤立、嘲笑,学习生活受到严重干扰 [6] 侵权特点与影响 - 侵权行为形式多样,包括侵害未成年人肖像权、名誉权、姓名权等 [6] - 网络侵权传播迅速,相关内容可在短时间内发酵并大范围传播,产生广泛影响 [6] 行业监管与治理动向 - 网信办等八部门发布《可能影响未成年人身心健康的网络信息分类办法》,自2026年3月1日起施行,明确将“不当使用未成年人形象”等突出问题纳入治理范围 [6] 对平台的要求与行动方向 - 平台需持续优化内容治理体系,建立未成年人内容专项保护机制,强化拦截手段和能力 [7] - 平台需及时清理已发布的违规历史存量内容,并对违规账号予以处罚 [7] - 平台应加强用户隐私保护宣传,在显眼位置推送提示以引导用户规范分享行为,同时为用户提供对应的举报渠道 [7] 对家长的建议与行动指南 - 家长应树立“晒娃先护娃”的保密意识,发布内容前仔细检查并遮挡孩子姓名、学校等敏感信息 [7] - 家长应审慎发布照片视频,尽量将孩子形象的传播限制在最小范围 [7] - 一旦发现侵权行为,家长应第一时间截图、保存链接固定证据,及时向平台举报,必要时通过法律途径维权 [7]
营造清朗网络空间有规可依
新浪财经· 2026-01-31 03:46
政策发布与背景 - 国家网信办等8部门印发《可能影响未成年人身心健康的网络信息分类办法》,自2024年3月1日起施行 [1] - 政策出台旨在为营造适合未成年人健康成长的网络环境提供具体制度保障,应对网络信息动态性、复杂性和隐蔽性带来的风险与挑战 [1] - 中国未成年网民规模持续增长,网络信息极易影响其身心健康和价值观塑造,此前对“灰色地带”信息缺乏明确分类标准,管理难度较大 [1] 政策核心内容与分类界定 - 新规结合未成年人身心发展特点,深化拓展了治理思路,特别关注算法推荐、生成式人工智能等新型应用场景下的问题风险 [2] - 将法律法规的原则性要求转化为具体操作规则,对可能影响未成年人身心健康的网络信息进行系统性界定与科学分类 [2] - 明确多维度分类,例如包括可能引发或诱导未成年人模仿不良行为的信息,如带有性暗示、性挑逗的内容,存在网络暴力不良信息,以及诱导非理性消费行为等 [2] - 关注不当使用未成年人形象的问题,包括利用其形象摆拍演绎不良价值观内容,或通过恶搞、打造争议人设博取关注 [2] - 剑指不当披露和使用未成年人个人信息的行为,如未经监护人同意展示不满十四周岁未成年人的学习、生活等可能暴露个人信息的内容 [2] 对行业的影响与平台责任 - 新规使治理标准从模糊感知转化为清晰可判,回应了“网红儿童”等争议,填补了规则空白,为网络信息内容审核与治理提供了明确依据 [3] - 进一步压实网站平台的主体责任,要求保护措施聚焦于内容分发关键环节 [3] - 明确平台不得在首页首屏、弹窗、热搜、榜单、推荐等醒目位置和重点环节呈现可能影响未成年人身心健康的信息 [3] - 此规定直接针对基于算法的内容分发模式,旨在从源头减少未成年人被动接触风险信息的可能性 [3] - 明确了平台审核边界,例如将“通过谐音梗、缩写词、拆解字、图文结合等形式传播不良网络用语”纳入管理,使平台审核有统一依据,避免遗漏风险或过度打击 [3]
加强未成年人网络保护
经济日报· 2026-01-28 06:18
政策法规发布 - 国家互联网信息办公室等八部门联合发布《可能影响未成年人身心健康的网络信息分类办法》[1] - 该《办法》明确了可能影响未成年人身心健康的网络信息的4种类型及具体表现形式[1] - 将不当使用未成年人形象等近年来突出问题纳入治理范围[1] - 对算法推荐、生成式人工智能等新技术、新应用、新业态可能带来的内容风险提出防范要求[1] 行业合规要求 - 网络平台及内容生产者须严格对照《办法》内容,主动开展自查与清理[1] - 平台及生产者需在首页首屏、热搜榜单等醒目位置严格把关[1] - 监管部门应将常态化巡查与专项治理紧密结合,着力提升技术监管能力[1] - 监管部门将利用专业手段核验平台防护措施的实际效果[1] 监管与执法机制 - 建立健全跨部门联合执法机制[1] - 对反复违规的主体依法从严处置[1] - 通过公示典型案例强化社会警示[1]
主播说联播丨首次!四大维度界定网络风险信息,护航孩子成长
央视新闻· 2026-01-26 07:10
《可能影响未成年人身心健康的网络信息分类办法》政策核心与监管框架 - 国家网信办、国家新闻出版署、教育部等八部门联合发布新规,自3月1日起施行,首次将影响未成年人身心健康的网络信息细化为四大类,使网络监管和治理“清晰可判” [1] 网络信息风险分类维度 - 第一类:可能引发或诱导未成年人模仿或实施不良行为的信息,例如带有性暗示、性挑逗等易使人产生性联想的内容 [1] - 第二类:可能对未成年人价值观造成负面影响的信息,例如宣扬奢靡享乐、炫富拜金、消极颓废等不良价值观的内容 [1] - 第三类:不当使用未成年人形象的信息 [1] - 第四类:不当披露和使用未成年人个人信息 [2] 监管措施与平台责任 - 新规为网络信息划定清晰边界,并通过设置严密的监管措施,构建立体化“防护网” [4] - 新规对网络平台和内容生产者提出刚性约束,从信息展示、算法推荐到提示标识等方面,构建全链条防护体系,实施精细化治理 [4] - 网络平台不得在首页首屏、热搜、弹窗、榜单等醒目位置,呈现可能影响未成年人身心健康的信息 [4]
为未成年人筑牢网络安全屏障 八部门发文明确四类风险信息
新浪财经· 2026-01-25 12:51
《可能影响未成年人身心健康的网络信息分类办法》核心观点 - 国家八部门联合发布《可能影响未成年人身心健康的网络信息分类办法》,自2024年3月1日起施行,首次将风险信息细化为四大类,旨在为未成年人筑牢网络安全屏障,标志着未成年人网络保护进入精细化、系统化治理阶段 [1][11] 风险信息分类维度 - **第一类:可能引发或诱导未成年人模仿不良行为的信息**,涵盖性暗示、网络暴力、诱导非理性追星打赏等 [1] - **第二类:可能对未成年人价值观造成负面影响的内容**,涵盖炫富拜金、畸形审美、“读书无用论”等错误观念 [1] - **第三类:不当使用未成年人形象的信息**,涵盖利用未成年人摆拍牟利、通过恶搞未成年人等方式博取关注 [1] - **第四类:不当披露未成年人个人信息的行为**,涵盖未经监护人同意不得展示不满十四周岁未成年人的学习、生活等场景 [1] 分类办法的意义与特点 - 分类办法将原则性法律表述转化为**可识别、可操作、可落地的具体规则**,为网络平台、内容生产者、监管部门及家长提供了清晰的判断标准,有助于实现保护的精细化和协同化 [8] - 分类基于网信部门多年网络生态治理实践,既覆盖传统风险,也紧盯新业态隐患,**源于“清朗”系列专项行动积累的高频问题及互联网平台实践**,能有效破解跨平台规避治理难题,确保监管无盲区 [5][11][13] - 清晰的分类有助于**各方快速辨识网络风险**,促进协同共治,使未成年人网络保护从事后补救、分散治理迈向事前预防和系统治理 [3][8][15] 对网络平台及内容生产者的刚性约束 - 网络平台**不得在首页首屏、热搜、弹窗、榜单等醒目位置**呈现可能影响未成年人身心健康的信息 [6] - 平台须建立健全安全管理制度,**严禁向未成年人推送风险信息**,特别是针对算法推荐、生成式人工智能等新技术 [6] - **专门以未成年人为服务对象的网络产品和服务,全面禁止制作、传播相关不良信息** [6] - 平台在进行内容审核时有了**可操作的负面清单**,必须据此建立审核规则和技术识别模型 [13] 信息提示机制的具体要求 - 内容生产者需在信息展示前,通过**文字提示、通用符号等形式在显著位置标注**[8] - 平台则要**提供专属标识功能**,引导用户规范提示 [8] - **不同信息载体的提示位置有明确标准**:文本在起始、末尾或中间适当位置标注,视频在起始画面设置标识,确保提示醒目有效 [8] - 提示机制有助于未成年人自我感知内容风险,并帮助家长识别和指导 [10] 协同共治与未来方向 - 《办法》的落地有助于**提升全社会共识,促进协同共治**,明确的分类标准有助于家长和老师开展针对性教育和干预 [15] - 专家建议**重点查处平台主体责任落实不到位、恶意传播不良信息等行为**,同时畅通公众举报渠道 [17] - 鼓励形成**政府监管、企业履责、社会监督、青少年自律的多方治理合力** [17]
如何织密未成年人网络保护网、阻断未成年人网络风险?八部门发布“办法”→
央视网· 2026-01-25 12:18
政策核心内容 - 《可能影响未成年人身心健康的网络信息分类办法》由国家网信办、国家新闻出版署、教育部等八部门联合发布,将于今年3月1日起施行[1] - 该《办法》首次将影响未成年人身心健康的网络信息细化为四大类,旨在让网络监管和治理“清晰可判”,为未成年人筑牢网络安全屏障[1] 风险信息四大分类 - 第一类:可能引发或诱导未成年人模仿不良行为的信息,涵盖性暗示、网络暴力、诱导非理性追星打赏等[1] - 第二类:可能对未成年人价值观造成负面影响的内容,涵盖炫富拜金、畸形审美、“读书无用论”等错误观念[3] - 第三类:不当使用未成年人形象的信息,涵盖利用未成年人摆拍牟利、通过恶搞未成年人等方式博取关注[5] - 第四类:不当披露未成年人个人信息的行为,涵盖未经监护人同意不得展示不满十四周岁未成年人的学习、生活等场景[7] 政策意义与专家解读 - 精细化的分类将以往模糊不清的内容清晰界定,为平台、监管、家长和学校提供了明确的判定标准[9] - 分类基于网信部门多年网络生态治理实践,覆盖传统风险及新业态隐患,既守住法律底线也划定道德红线,为后续监管执法提供明确依据[11] - 《办法》将原则性的法律表述转化为可识别、可操作、可落地的具体规则,有助于实现未成年人网络保护的精细化和协同化[14] - 分类标准源于“清朗”系列专项行动积累的高频问题及平台实践,系统化梳理能有效破解跨平台规避治理的难题,确保监管无盲区[20] - 明确的分类标准有助于家长和老师快速辨识网络风险,开展有针对性的教育和干预,提升全社会共识并促进协同共治[24] 对网络平台及内容生产者的要求 - 网络平台不得在首页首屏、热搜、弹窗、榜单等醒目位置呈现可能影响未成年人身心健康的信息[12] - 平台须建立健全安全管理制度,严禁通过算法推荐、生成式人工智能等新技术向未成年人推送风险信息[12] - 专门以未成年人为服务对象的网络产品和服务,全面禁止制作、传播相关不良信息[12] - 内容生产者需在信息展示前,通过文字提示、通用符号等形式在显著位置进行标注[16] - 平台需提供专属标识功能,引导用户规范提示,并对不同信息载体的提示位置(如文本起始/末尾、视频起始画面)设定明确标准[16] - 平台在进行内容审核时有了可操作的负面清单,必须根据清单建立相应的审核规则和技术识别模型[22] 协同治理与未来方向 - 政策标志着我国未成年人网络保护进入精细化、系统化治理阶段,旨在构建全方位、立体化的网络安全防护网[20] - 将“清朗行动”的经验制度化,为监管部门提供了更加清晰的处罚处置依据,针对如未成年人开盒、变脸、网红儿童诱导打赏、饭圈乱象等突出问题[22] - 建议相关部门重点查处平台主体责任落实不到位、恶意传播不良信息等行为[26] - 建议畅通平台公众举报渠道,鼓励家长、教师及社会公众参与监督,形成政府监管、企业履责、社会监督、青少年自律的多方治理合力[26]
“校园表白墙”成网络欺凌高发载体 该如何维权?
新浪财经· 2026-01-24 22:29
文章核心观点 - 以“校园表白墙”为代表的非官方校园社交平台,已成为针对未成年人网络欺凌的高发载体,其运营者(多为学生)风险与法律意识薄弱,学校若缺乏引导则易滋生侵权行为 [1][8] - 当前针对未成年人的网络欺凌正朝着更隐蔽、更持续、更具扩散性的方向演变,常披着网络文化外衣(如恶俗玩梗、制作恶意表情包),攻击群体年龄呈现下沉趋势,对受害者造成长期心理伤害并影响其现实社交 [9][10][12][14] - 应对网络欺凌需构建多方参与的协同治理体系,包括平台利用技术前置识别风险并阻断传播、司法机关与社会力量提供法治教育与心理支持、以及公众通过便捷渠道参与举报,共同守护未成年人网络空间 [21][22][24][25] 网络欺凌的现状与特征 - **高发载体**:“校园表白墙”等由学生运营的非官方社交账号是网络欺凌高频发生载体,管理员因缺乏风险与法律意识,常未审核即发布映射他人隐私或进行诽谤的投稿,导致内容在校内传播并给当事人造成极大困扰 [5][8] - **形态演变**:网络欺凌形态从早期的直白辱骂,演变为更隐蔽、更持续、更具扩散性的方式,例如将现实矛盾延伸至线上,通过非法获取信息进行威胁,或利用恶俗玩梗、伤痛娱乐化、制作恶意表情包等方式进行包装,对受害者造成更长期反复的伤害 [9][10] - **受害与参与群体**:参与网络欺凌的群体年龄明显向初中甚至更低年龄阶段下沉,欺凌行为多发生在相对固定的熟人社交圈层,受害者在其中持续承受压力,容易引发焦虑、自卑、抑郁症,并在现实社交中被孤立 [12][14][15] 维权难点与应对措施 - **维权难点**:未成年人遭遇网络欺凌后维权存在证据固定难、易被删除等难点,且其自我保护意识薄弱,可能使短期伤害演变为长期心理创伤 [14] - **司法与社会支持**:司法机构正积极介入,例如北京市海淀区人民检察院成立了近70人的法治副校长团队,每年开展上百场法治课堂进校园,向学生普及网络行为边界与自我保护知识 [17][19];社工组织则对受欺凌者提供应激心理支持、家长教育并帮助其回归正常生活 [21] - **平台治理举措**:平台方正从单纯“看内容”转向“看行为模式”,通过技术手段识别异常聚集、集中攻击等风险形态,旨在扩散前介入;治理目标不仅是删除内容,更通过限制传播、弱化热度来切断扩散链条;平台还需与司法机关、社会力量协同,对严重情形依法留存证据、移送线索,提高违法成本 [22][23][24] - **公众参与路径**:公众发现针对未成年人的网络欺凌可第一时间保留证据,并向相关社交平台举报,同时可拨打免费举报电话12377或登录中央网信办违法和不良信息举报中心网站投诉举报,情节严重的应及时向公安机关报案或向法院提起诉讼 [25] 案例与数据支撑 - **具体案例**:北京青少年法律援助与研究中心近期处理了一起案例,一名13岁患抑郁症的女孩因同学在短视频平台连续发布多篇映射其家庭和学校行为的短视频,遭受网络欺凌导致病情加重并休学 [1] - **咨询量级**:近一年,北京青少年法律援助与研究中心团队为公众提供公益法律咨询服务近5000次,其中包含不少类似的未成年人网络欺凌案例 [3]
可能影响未成年人身心健康的网络信息如何分类、处置?八部门发布办法
新浪财经· 2026-01-24 17:18
政策发布 - 国家互联网信息办公室等八部门发布《可能影响未成年人身心健康的网络信息分类办法》,自2026年3月1日起施行 [1][11][12] 出台背景与核心要义 - 出台背景是完善管理制度以实现精准识别,因我国未成年网民规模持续增长,网络空间存在部分难以清晰界定但可能对未成年人产生潜在负面影响的信息,此前缺乏明确分类标准导致管理难度大 [3] - 核心要义是构建分类体系并压实主体责任,将法律法规中的原则性要求转化为有操作性、针对性的具体规则 [3] 信息分类体系 - 第一类:可能引发或诱导未成年人模仿或实施不良行为的信息,例如带有性暗示、性挑逗,存在网络暴力不良信息,诱导非理性消费等 [3][17][19][20] - 第二类:可能对未成年人价值观造成负面影响的信息,例如宣扬奢靡享乐、炫富拜金、消极颓废、畸形审美、低俗恶俗文化等 [3][20][21] - 第三类:不当使用未成年人形象的信息,例如利用未成年人形象摆拍不良剧情、恶搞未成年人打造争议人设博取关注等 [4][21][22] - 第四类:不当披露和使用未成年人个人信息,例如未经监护人同意展示不满十四周岁未成年人的学习生活信息 [4][22] 对网络内容生产者与服务提供者的要求 - 要求网络信息内容生产者及网络产品和服务提供者按照相关法律法规,对可能影响未成年人身心健康的网络信息采取防范和抵制措施 [6][23] - 明确内容呈现管理:不得在首页首屏、弹窗、热搜、榜单、推荐、精选等醒目位置和重点环节呈现此类信息 [6][30] - 添加显著提示标识:制作、复制、发布、传播此类信息的组织和个人需在信息展示前于明显位置作出显著提示;网络产品和服务提供者应提供添加标识的功能并引导用户使用 [6][27][29] - 健全技术保障措施:提供算法推荐、生成式人工智能等服务者应建立安全管理制度和技术措施,不得向未成年人推送此类信息;不得在专门以未成年人为服务对象的产品和服务中制作、复制、发布、传播此类信息 [6][31] 实施展望与协同共治 - 推动协同共治以护航未成年人健康成长,标志着未成年人网络保护法治体系向精细化迈出关键一步 [7][9] - 网络产品与服务提供者应以《办法》为基准,细化审核标准,加强技术投入优化识别算法,完成产品功能改造确保提示功能有效展现,并着力建设运营适合未成年人的专属内容生态 [7] - 监管部门可依据《未成年人网络保护条例》等对违规行为进行处理,形成执法震慑,并通过发布典型案例等方式细化裁量标准和执法指引 [9] - 家庭、学校和社会应将治理理念与信息分类标准融入未成年人网络素养教育,并鼓励家长、教师及公众参与监督,形成多方治理合力 [9]