美剧《疑犯追踪》中的“AI预警机制”雏形? OpenAI八个月前标记加拿大枪击案嫌疑人
智通财经网·2026-02-21 14:04

事件概述 - 全球AI应用领军者OpenAI在约八个月前,通过其AI安全系统检测并封禁了一个后来在加拿大制造大规模枪击案的嫌疑人(杰西·范·鲁茨拉尔)的ChatGPT账户,但当时未向警方报告该账户 [1][2] - 该枪击事件造成8人死亡、约25人受伤,嫌疑人随后自杀 [1] - 事件发生后,OpenAI主动联系了加拿大皇家骑警,提供了嫌疑人的资料及其使用的ChatGPT账户信息 [2] 公司行动与决策 - OpenAI利用其检测滥用AI大模型的智能工具识别出该账户存在描述枪支暴力骇人场景等内容,并因此将其封禁 [1][2] - 公司内部曾就是否报警产生激烈争论,部分员工敦促领导层提醒警方,另一部分则认为证据不足 [2] - OpenAI官方声明,当时评估认为未识别出“可信或迫在眉睫的恐怖袭击或暴力计划”,不符合向执法机构报告的门槛,因此在枪击事件发生后才联系警方 [2][4] - 公司表示,训练ChatGPT的重点任务之一是劝阻或阻拦可能导致现实世界伤害的即时行为 [2] 行业技术现状与市场关注 - 此次事件引发了全球金融市场对AI安全责任、隐私问题以及AI风险监测机制的热议 [1][3] - 事件表明,基于AI的智能系统具备监测内容、识别潜在风险行为(如恐怖或暴力倾向对话)的能力,并能自动触发屏蔽机制 [3] - 然而,当前AI系统的监测能力主要基于已输入的信息、关键词模式和语义分析进行内容过滤与行为检测,属于风险信号评估,与《疑犯追踪》剧中“全知全能预测未来犯罪”的AI有本质区别,不具备主动推断未来行为或进行因果推断的能力 [3][4] - AI安全机制目前更侧重于对当前表达的风险信号进行评估,而非对未来行为进行预测,其上报判断依赖于内部设定的风险阈值 [4] 技术发展趋势 - 随着AI大模型对风险信号的筛查和响应能力增强,以及预测未来犯罪概率的能力提升,未来可能出现能够更精准预测犯罪行为轨迹、并在犯罪意图转化为实质伤害前进行干预的机制 [5]