被AI极度宠溺的儿童:“它更懂我”,家长:孩子无法容忍不同的观点
36氪·2026-01-23 11:52

文章核心观点 生成式AI产品正以前所未有的速度和深度涌入儿童生活,被部分家长视为“数字家教”,但过度使用和依赖AI已引发儿童认知偏差、社交能力萎缩、价值观塑造、隐私安全等一系列问题,行业厂商正通过技术手段加强内容过滤与数据管理,专家呼吁家长、平台和立法协同,为儿童建立安全的使用环境[1][4][14] 行业现状与产品渗透 - 以豆包为代表的新一代AI产品,凭借语音交互等功能,正以前所未有的速度和深度涌入学龄前儿童的世界[1] - 智能音箱已成为许多家庭的标配,孩子们向AI抛出无穷无尽的问题,其展现的“渊博”与“耐心”让不少家长视之为“数字家教”[1] - 随着ChatGPT引爆生成式AI浪潮,AI带娃现象出现,但最早一批尝鲜的家长已有人开始卸载相关应用[1] 用户行为与市场反应 - 网络平台上不少家长的发帖和留言暴露了“AI上瘾低龄化”的问题,有家长感慨“用少了怕落后,用多了怕他不会思考”[1][3] - 有4岁女孩自幼儿园了解到某个大模型后,便沉迷于和大模型对话,一次聊天能持续近两小时[1] - 一些家长选择让孩子在AI软件的摄像头前写作业,利用AI作为“电子监工”来提醒孩子坐姿等[8] 产品使用引发的风险与挑战 - 认知发展风险:儿童正处于认知发展的关键期,过度依赖AI可能导致现实感知混淆、社交能力萎缩,并削弱主动思考与深度阅读等高阶能力[4] 长期接触虚拟内容、缺乏真实体验会导致认知错位,例如有学龄前孩子指着窗外的树惊恐地说是“杀人树”[10] - 价值观塑造风险:AI知识丰富且特别会夸人,提供极高的情绪价值,但算法会盲目迎合孩子,让其易形成“AI即权威”的观念,冲击现实规则并可能引发亲子冲突[6][11] 有孩子被父母批评后甚至说出某款大模型更懂他[7] - 行为与专注力影响:AI“监工”只能识别“低头”“东张西望”等动作,无法理解孩子是在思考还是走神,频频的语音提醒反而破坏了孩子的专注力[8] 长期沉迷AI将挤压户外活动与真实社交,直接影响儿童健康,并可能导致“虚拟性人格”[11] - 隐私安全风险:一直亮着的监控摄像头意味着孩子的学习场景、家庭环境、甚至实时视频流都可能被采集分析,给儿童隐私保护带来极大隐患[9] 行业厂商的应对措施 - 小度、字节跳动、小米、科大讯飞等占据大量家庭入口的头部厂商表示,已通过“儿童模式”等机制实施更严格的内容过滤与数据管理,包括分级内容管控和限定问答边界[16] - 小度称系统能识别儿童交互场景(如播放儿歌后)并自动启动保护机制,即使在普通模式下也持续通过AI算法实时识别并拦截不良信息[16] - 小米正探索基于声纹识别的身份判定方案以提升准确性,并承诺遵循“采集须经监护人授权、存储符合规范、使用设定禁区”的原则,不将儿童数据用于模型训练或向第三方转让用于商业营销[16] - 小度明确表示收集的用户数据仅用于提升产品自身的体验,并已建立涵盖数据全生命周期的完善个人信息保护合规制度与数据管理体系[16] 专家建议与行业规范方向 - 专家指出,对于学龄前儿童,产品设计不应盲目追求“更真实的陪伴感”,明确的功能边界本身就是一种保护[14] 平台责任至关重要,未成年模式不应是简单的“减法”,而应提供丰富且适龄的内容,在技术、内容和时间上严格区分成人与未成年人[14] - 法律人士建议,内容分级可采取“年龄+认知”的双重标准,借助身份认证与算法优化细化推送机制,并建立实时审查与阻断体系[17] 对未成年人生物信息的收集与处理必须在监护人明确同意下,严格遵循最小必要、最小授权原则[17] - 通识教育研究者指出,家长应优先规划“何时不用”AI(如睡前、情绪低落或家庭共处时光),并让AI成为全家共同探索的工具,在此过程中展现谦逊、好奇、谨慎等品格[13] - 教育科学研究院研究员强调“有限、均衡”是基本准则:3岁前幼儿最好不接触,3至6岁幼儿每日使用时间不宜超过日常活动的十分之一[13]

被AI极度宠溺的儿童:“它更懂我”,家长:孩子无法容忍不同的观点 - Reportify