人工智能技术应用于军事领域
搜索文档
光速滑跪之后,OpenAI公布与五角大楼协议,但引来更多质疑
机器之心· 2026-03-01 08:12
事件背景与核心冲突 - Anthropic公司因拒绝向美国国防部提供其AI系统的完全访问权限,被特朗普政府封杀并贴上“供应链安全风险”标签,此举获得了硅谷的广泛声援,甚至包括其竞争对手OpenAI的初步支持 [1] - 随后事件发生戏剧性反转,OpenAI首席执行官奥特曼宣布公司已与美国国防部达成协议,将在其机密网络中部署AI模型,此举导致OpenAI在硅谷的风评急转直下 [2][3] - 为回应外界质疑其“放弃底线”,OpenAI发布详细声明,阐述其与国防部协议中包含的“三道红线”及保障措施,并强调其协议比包括Anthropic方案在内的以往所有同类协议都更为完善 [4][6] OpenAI协议的核心内容与自我辩护 - **核心原则(三道红线)**:协议明确规定,OpenAI技术不得用于1) 大规模国内监控;2) 指挥自主武器系统;3) 高风险自动化决策(如“社会信用体系”类系统)[6][7] - **部署架构**:所有部署均为纯云端部署,由OpenAI完全控制其安全防护体系的运维,公司不会提供“无防护规则”的模型或未经安全训练的模型,也不会在边缘设备部署模型,以杜绝技术被用于自主致命性武器的潜在风险 [8][9] - **协议关键条款**:国防部可在符合适用法律、作战需求及安全监督规程的前提下,为“所有合法目的”使用该AI系统 [10] - 在现有法律、法规或国防部政策要求由人类掌控的场景中,系统不得用于独立指挥自主武器 [10] - 系统不得参与制定需要人类决策者批准的其他高风险决策 [10] - 涉及美国公民隐私信息的情报活动,需遵守《美国宪法第四修正案》、《外国情报监控法》等一系列现行法律,且不得用于“不受约束”的监控或《治安民兵法》等法律允许情形外的国内执法活动 [11] - **人员参与保障**:OpenAI将派遣具备涉密资质的部署工程师以及安全与对齐研究人员全程参与,提供技术支持和协作保障 [13] - **合作动机阐述**:OpenAI声称合作是为了在美国潜在对手不断将AI技术融入其系统的背景下,为美国军方提供高性能AI模型支持,同时强调绝不会为提升技术性能而移除核心防护规则 [14][15] - **与Anthropic方案的对比**:OpenAI认为其协议提供的保障措施和责任防护规则比Anthropic最初的协议更为完善,关键在于其部署仅限于云端、安全防护体系由公司持续优化运维、并有公司人员全程参与 [16][23] 外界对OpenAI协议的质疑与批评 - **核心条款的模糊性与潜在风险**:批评者指出,协议中“所有合法目的”这一授权条款极为宽泛,当法律发展速度滞后于技术时,该条款形同“一张明天就能生效的空白支票”,这正是Anthropic公司之前拒绝的条款 [27][28][29][30] - **红线条款的依赖性与脆弱性**:对自主武器和高风险决策的限制,均依赖于“现行”法律、法规或国防部政策的要求。一旦相关政策被修改以允许更大的自主性,这些限制将自动缩小或失效,并非真正的“红线”,而只是对现行规则的镜像反映 [31][32][33] - **监控禁令存在解释空间**:协议禁止的是“不受约束”地监控美国公民的私人信息。批评者认为,“不受约束”一词可能为任何带有目标标准(无论多宽泛)的监控开脱,这并非禁止监控,而只是禁止完全没有规则的监控 [34] - **法律援引的局限性**:协议中关于监控的条款,其限制范围与所援引的现行法律(如《外国情报监控法》)所允许的范围一致,并未施加超出这些法律现有框架的额外限制 [35] - **总体评价**:基于上述分析,外界担忧OpenAI协议中的多层约束架构建立在过于宽泛的授权基础之上,其“红线”可能因法律或政策的变更而被轻易突破,因此质疑这些防护措施的实际效力 [24][37]