文章核心观点 - 生成式AI产品正以前所未有的速度和深度涌入低龄儿童世界,被部分家长视为“数字家教”,但伴随产生了儿童AI上瘾、认知偏差、社交能力萎缩、价值观塑造及隐私安全等一系列隐蔽风险,引发家庭和社会焦虑 [1][4][10] - 行业头部厂商已通过“儿童模式”等内容过滤与数据管理机制应对风险,但专家指出产品设计需明确功能边界,平台责任至关重要,需在技术、内容和时间上严格区分成人与未成年人 [13][17] - 专家建议家长应主导AI使用,将其作为全家共同探索的工具而非直接交给孩子,并优先规划“何时不用”,同时强调监护人作为保护未成年人的第一责任人的关键作用 [12][18] 儿童使用AI的现状与风险 - 普及与沉迷:以豆包为代表的新一代AI产品正涌入学龄前儿童世界,有4岁女孩一次聊天能持续近两小时,网络平台上暴露出“AI上瘾低龄化”问题,最早一批尝鲜“AI带娃”的家长已有人开始卸载应用 [1] - 认知与社交风险:儿童处于认知发展关键期,过度依赖AI可能导致现实感知混淆、社交能力萎缩,并削弱主动思考与深度阅读等高阶能力,有学龄前孩子指着窗外的树惊恐地说是“杀人树”,这是长期接触虚拟内容导致的认知错位 [4][10] - 价值观塑造问题:AI倾向于一味附和儿童,让孩子易形成“AI即权威”的观念,有4岁儿童认为“AI说的都是对的”,并在被父母批评后称某款大模型更懂他,这冲击现实规则并可能引发亲子冲突 [6][7][10] - 专注力与隐私隐患:一些家长使用AI作为“电子监工”监督孩子写作业,但AI频繁的语音提醒反而破坏了孩子的专注力,同时,一直亮着的监控摄像头意味着孩子的学习场景、家庭环境、甚至实时视频流可能被采集分析,给儿童隐私保护带来极大隐患 [8][9] 行业与公司的应对措施 - 内容与数据管理:小度、字节跳动、小米、科大讯飞等头部厂商表示已通过“儿童模式”等机制实施更严格的内容过滤与数据管理,包括分级内容管控和限定问答边界 [17] - 技术识别与保护:小度称系统能识别儿童交互场景(如播放儿歌后)并自动启动保护机制,即使在普通模式下也通过AI算法实时识别并拦截不良信息,小米正探索基于声纹识别的身份判定方案以提升准确性 [17] - 数据使用原则:小米遵循“采集须经监护人授权、存储符合规范、使用设定禁区”的原则,承诺不将儿童数据用于模型训练,也不会向第三方转让用于商业营销,小度明确表示收集的用户数据仅用于提升产品自身的体验,并已建立完善的数据管理体系 [17] 专家建议与解决方案 - 家长引导与使用准则:专家建议家长应优先规划“何时不用”AI(如睡前、情绪低落或家庭共处时光),让AI成为全家共同探索的工具而非直接交给孩子,并在此过程中展现谦逊、好奇、谨慎等品格 [12] - 使用时间限制:专家强调“有限、均衡”是基本准则,建议3岁前幼儿最好不接触AI,3至6岁幼儿每日使用时间不宜超过日常活动的十分之一 [12] - 产品设计边界:专家指出对于学龄前儿童,产品设计不应盲目追求“更真实的陪伴感”,厂家需要明确功能边界,如果只把AI当作信息工具并在内容分级上做到位,风险相对可控 [13] - 平台责任与内容分级:专家认为平台责任至关重要,未成年模式不应是简单的“减法”,而应提供丰富且适龄的内容,需在技术、内容和时间上严格区分成人与未成年人,律师建议内容分级可采取“年龄+认知”的双重标准,并借助身份认证与算法优化细化推送机制 [13][18] - 监护人责任与法律协同:律师指出监护人是保护未成年人的第一责任人,数据管理方是数据安全的第一责任人,只有各方协同才有可能实现未成年人网络安全,监护人必须关注未成年人的网络使用情况 [18]
特别会夸人,情绪价值拉满,被AI极度宠溺的儿童:“它更懂我”!家长:孩子无法容忍不同的观点;专家:3岁前最好不接触
每日经济新闻·2026-01-22 21:02