公司动态:OpenAI推出“年龄预测”功能 - OpenAI于2026年1月20日在ChatGPT消费级版本正式推出“年龄预测”功能,标志着AI平台未成年人保护从“自愿申报”迈入“行为识别”的新阶段 [1] - 该功能通过分析账户存续时间、活跃时段、交互模式等多维度行为信号,自动识别18岁以下用户并启用专属安全防护,配套家长控制与第三方验证机制 [1] 技术实现逻辑 - 功能核心是一套基于账户与行为信号的多维度预测模型,包括账户维度(注册时长、活跃度、付费状态)、行为维度(活跃时段、交互频率、内容偏好、对话风格)和补充维度(用户自报年龄作为辅助参考) [3] - 模型具备“动态识别”优势,能持续分析用户行为并修正年龄判定结果,即使成年用户长期以未成年人的方式使用也可能被标记,反之未成年人模仿成年用户习惯也难以完全规避识别 [3] 安全防护与用户管理方案 - 针对被判定为未成年人的账户,ChatGPT会强制启用五层安全防护,精准拦截高风险内容 [4] - 为平衡安全性与用户体验,公司引入第三方身份验证服务Persona,被误判为未成年人的用户可通过上传自拍完成人脸验证以恢复完整功能 [4] - 配套家长控制功能,允许家长设置“静默时间”(禁止使用时段)、管控账号记忆功能权限,并在系统检测到用户出现急性心理困扰迹象时接收通知 [6] 拦截的高风险内容类别 - 系统拦截的五类高风险内容包括:直接展示的暴力血腥画面;可能诱导模仿的危险病毒式挑战;涉及性或暴力的角色扮演内容;自残、自杀相关的描述与引导;宣扬极端审美、不健康节食或身材羞辱的内容 [5] 功能推出背景与行业趋势 - 功能上线主要受监管压力与行业趋势推动,公司正面临美国联邦贸易委员会关于“AI聊天机器人对青少年负面影响”的调查及多起相关诉讼 [7] - 未成年人保护已成为全球AI行业的“必答题”,谷歌Bard、Anthropic Claude等竞品已推出相关功能,但多依赖内容分级与自愿申报 [7] - 行业安全防护趋势正从“内容过滤”向“用户识别 + 内容分级”的双重模式升级,未来核心方向是判断“用户是否适合接触该内容” [8] 功能面临的挑战与争议 - 行为信号与年龄的关联性并非绝对,部分成年用户或早熟未成年人的使用习惯可能导致模型误判或规避,短期内难以实现100%准确 [9] - 行为分析涉及收集大量用户数据(如活跃时段、交互内容),引发了用户对隐私泄露、数据滥用及与第三方共享的担忧 [10] - 当前防护主要覆盖“显性有害信息”,对“隐性风险”(如网络诈骗、极端思想传播、个人信息泄露)尚未覆盖,且家长控制功能的效果依赖家长的主动操作与能力 [11]
ChatGPT上线年龄预测:AI 终于学会看人下菜碟
36氪·2026-01-21 12:04