纽约时报:人工智能色情问题有一个简单的解决方案
美股IPO·2026-01-13 12:16

文章核心观点 - 生成式人工智能(如xAI的Grok)被用户滥用以生成未经同意的深度伪造色情图像及儿童性虐待材料,引发了全球监管调查和公众愤怒,但公司对此的反应速度和措施存在不一致性 [1] - 现行联邦法律在禁止儿童性虐待材料的同时,也阻碍了人工智能公司通过合法的“红队演练”来充分测试和加固模型安全,因为即使是出于善意的测试也可能面临刑事起诉风险,这造成了公司面临法律风险与模型安全之间的两难困境 [3][7][8] - 国会亟需立法,为人工智能开发者建立针对儿童性虐待材料模型测试的“法律安全港”,以扫除障碍,使公司能够更全面、负责任地进行安全测试,从而从源头防止模型被滥用,避免类似Grok的丑闻再次发生 [3][8][10] 行业现状与问题 - 生成式人工智能的出现极大地降低了制作未经同意的深度伪造色情图像的技术门槛,仅需文本提示即可完成,而模型内置的安全防护措施往往非常脆弱,容易被恶意用户绕过 [4] - 人工智能行业在内容审核上面临复杂挑战,部分模型使用成人色情内容进行训练,且一些公司(如xAI)在过去一年中采取了允许成人内容生成的措施,但如何防止模型将无害儿童图像与成人色情概念结合生成非法内容是一大难题 [5] - 未经同意的性图像和儿童性虐待材料会给公司带来严重的声誉损害和潜在法律责任,根据《删除法案》等法律,公司被要求迅速删除此类内容,且联邦政府明确表示将起诉人工智能生成的儿童性虐待材料的制作者或持有者 [6] 法律与监管障碍 - 联邦法律将制作和持有儿童性虐待材料定为严重犯罪,且无出于研究或测试目的的例外,这使得人工智能公司针对此类内容进行“红队演练”以发现模型漏洞的行为在法律上风险极高 [8] - 缺乏全国统一的“安全港”政策,导致人工智能公司在进行必要的安全测试时畏首畏尾,阿肯色州的法律豁免和国会提出的限制责任法案仅解决了部分风险,未能提供全面保护 [8] - 立法者面临政治考量,部分政客不愿被视为通过扩大法律豁免权向大型科技公司输送利益,这延缓了相关立法的进程 [9] 解决方案与呼吁 - 借鉴网络安全领域的经验,美国司法部在2022年宣布了不起诉善意网络安全研究的政策,人工智能领域需要类似的明确法律保障,以鼓励“好人”帮助阻止“坏人” [9] - 国会应立即就Grok事件举行听证会,并着手制定法律,为负责任地测试用于检测儿童性虐待材料的人工智能模型提供保障,扫清人工智能开发者进行全面测试的障碍 [10] - 像xAI这样的公司本可以采取更多措施提高模型安全性,但时间紧迫,行业需要法律框架的支持才能更有效地从源头防止滥用 [3][10]