Parental controls on Instagram expanded - and brought to Facebook
文章核心观点 Meta对Instagram应用进行更新,限制16岁以下青少年部分功能使用需获家长同意,扩展青少年账户系统至Facebook和Messenger,这是应对社交媒体对青少年影响的举措,同时行业面临监管及加密功能争议 [1][2][7] 应用更新内容 - Instagram更新后16岁以下用户直播需获家长批准 [1] - 16岁以下用户禁用自动模糊含潜在裸露图像功能需家长许可 [1] 青少年账户系统 - Meta将青少年账户系统扩展至Facebook和Messenger [2] - 9月为Instagram推出青少年账户计划让家长监督孩子上网活动 [2] - 全球约5400万青少年已迁移至青少年账户 [3] - 此次更新先在英、美、加、澳用户中推出 [3] 现有保障措施 - Instagram青少年用户账户默认设为私密 [3] - 阻止陌生人私信 [3] - 严格限制敏感内容 [3] - 提醒休息及限制就寝时间通知 [3] 行业监管情况 - 监管促使平台让家长对孩子使用社交媒体有更大控制权 [6] - 英国《在线安全法案》生效要求大科技平台防止用户遇非法有害内容 [6] 加密功能争议 - 科技巨头因消息应用端到端加密功能面临压力,担心难处理儿童虐待问题 [7] - NSPCC指责Meta在Messenger推出加密功能是对侵害儿童犯罪视而不见,Meta称该功能保护用户隐私 [7]