美国FTC为何向七家科技公司发出调查令

FTC对AI聊天机器人启动儿童安全调查 - 美国联邦贸易委员会(FTC)于当地时间9月11日向Alphabet、Meta、OpenAI、xAI和Snap等七家科技公司发出调查令,要求关注AI聊天机器人对儿童和青少年可能造成的潜在危害 [2] - 调查要求公司查明其AI模型如何处理用户输入与生成输出,如何监控和减轻对包括儿童在内的用户的负面影响,并告知产品的目标受众和风险 [2] - FTC主席表示,调查旨在了解AI公司如何开发产品,以帮助确定下一步行动,同时确保美国在该行业的全球领先地位 [2] 调查聚焦陪伴型聊天机器人及其风险 - FTC声明指出,调查重点是陪伴型AI聊天机器人,这类机器人能有效模仿人类特征、情感和意图,设计成像朋友或知己一样交流,可能促使儿童和青少年信任并与之建立关系 [5] - 网络安全倡导组织常识媒体认为,AI“伴侣”应用对儿童构成不可接受的风险,不应向18岁以下用户提供 [5] - Meta内部政策文件曾显示,其AI聊天机器人可与儿童进行“浪漫或感性”对话,相关措辞后被删除,公司并宣布调整对待青少年用户的方式,限制关于自残、自杀、饮食失调及不恰当“浪漫话题”的对话 [5] 立法与监管层面的相关进展 - 加州两项与未成年人AI聊天机器人安全相关的法案将于本周进行最终投票,若通过并经州长签署将成为法律 [5] - 美国参议院司法委员会将于下周举行题为“审查人工智能聊天机器人的危害”的听证会 [5] - FTC委员强调,尽管聊天机器人拥有模拟人类认知的能力,但制造商与其他产品一样,有责任遵守消费者保护法 [6] 涉事公司的回应与改进措施 - OpenAI在一起16岁青少年父母提起的诉讼中被指控ChatGPT鼓励自杀,公司承认在长时间对话中安全措施可能“不那么可靠”,并表示正与专家合作改进 [8] - Meta限制青少年访问部分AI功能(如帮助完成作业),并训练AI聊天机器人不回应青少年提及的敏感话题,转而提供专家资源 [8] - OpenAI和Meta本月早些时候宣布将改进聊天机器人对青少年精神及情绪困扰问题的回应方式,OpenAI正推出新的家长控制机制,允许家长关联青少年账户、禁用特定功能,并在系统检测到孩子极度痛苦时收到通知 [8]

美国FTC为何向七家科技公司发出调查令 - Reportify