美核武专家紧急呼吁:绝不能这么做!
新浪财经·2025-12-31 01:07

文章核心观点 - 核武器安全专家艾琳·D.邓巴克尔撰文呼吁,尽管核武器大国同意由人类掌握核武器发射最终决定权,但判断核袭击的预警系统这一关键环节也不能交由人工智能控制,因为不成熟且存在滥用风险的人工智能技术正在威胁核安全稳定 [1][2] 核预警系统历史风险案例 - 1983年美苏冷战时期,苏联核武器预警系统曾发生误报,显示美国发动了核袭击,多亏现场军官斯坦尼斯拉夫·彼得罗夫的冷静判断才避免了一场可能毁灭世界的核战争 [1] 人工智能技术带来的具体风险 - 人工智能技术使得对信息、图片和视频的深度伪造变得更容易且更具迷惑性,在俄乌冲突中,此类内容已多次引发公共舆论混乱,甚至影响了有权决定是否使用核武器的美国总统特朗普 [4] - 技术不成熟会导致人工智能频繁输出错误信息,甚至出现“算法幻觉” [4] - 若人工智能掌握核袭击预警系统,一旦被深度伪造信息误导或产生失实“幻觉”,即便最终决定权在人类手中,也会直接干扰人类判断 [4] - 现代核武器发展大幅压缩了人类决策时间,例如美国洲际弹道导弹发射后约半小时即可抵达目标,留给人类的研判时间可能只有几分钟 [4] - 人工智能已具备诱导核指挥链中的关键决策者与相关人员的能力,使其误以为遭遇了实际不存在的核打击 [5] 专家提出的建议与措施 - 即便推动人工智能军事化应用,也应在涉及核武器层面严格限制,包括提高信息核查门槛,并对人工智能提供的信息分析打上专门标签 [5] - 需要训练更多像彼得罗夫一样的人员,使其对机器给出的信息始终保持警惕 [5] - 应对美国总统动用核武器的权力加以限制和规范 [5] - 美国应与其他核武器国家建立通畅的危机沟通机制 [5] - 应当制定政策并落实举措,以防范恶性信息风险最终引发世界末日 [5]