Anthropic-Pentagon battle shows how big tech has reversed course on AI and war
奈飞奈飞(US:NFLX) The Guardian·2026-03-13 19:00

文章核心观点 - 科技行业与国防军事的关系正在发生显著转变 从过去的普遍抵制转向更广泛的合作与接受 这种转变受到政治环境、商业机会和地缘竞争等多重因素驱动 [1][4][5] - Anthropic与五角大楼的公开对峙凸显了AI公司在军事应用上的伦理边界之争 但同时也揭示了该公司与军方存在广泛合作基础 其立场是允许大部分军事用途 仅对少数情况设限 [2][3][17][19] 行业态度与行为转变 - 行业整体对军事合作的态度发生重大转变 与十年前相比已大不相同 硅谷在特朗普领导下的右倾、有利可图的国防合同、对中国技术进步的担忧以及国际国防开支激增是主要推动因素 [1][5] - 以谷歌为例 其在2018年因超过3000名员工抗议而退出国防部“Maven项目”并制定禁止开发伤害性技术的政策 但随后压制员工 activism、移除政策中的相关限制性条款 并与军方签署了多项产品使用合同 [6][7][8] - 2024年 谷歌解雇了50多名抗议其与以色列政府军事联系的员工 并明确表示公司是商业机构而非政治辩论场所 近期宣布将提供Gemini AI作为军方创建AI智能体的平台用于非机密项目 [8][9] 主要AI公司军事合作现状 - OpenAI在2024年前全面禁止军方使用其模型 但之后其首席产品官在美国军方“执行创新团”担任中校 并与谷歌、Anthropic、xAI共同签署了价值高达2亿美元的国防部合同 将其技术整合进军事系统 近期还获得了用于机密军事系统的合同 [10] - 国防科技公司Anduril和监控技术公司Palantir等鹰派公司 将与美国国防部合作作为业务基石 并试图影响硅谷政治 Palantir在2010年代初期就与军情机构合作 并在2019年接手了谷歌放弃的“Maven项目”合同 [11][12] - 根据《华盛顿邮报》 “Maven”现在是军方人员访问Anthropic的Claude模型的机密系统名称 [12] Anthropic的立场与行动分析 - Anthropic起诉美国国防部 称将其列入政府工作黑名单侵犯了其第一修正案权利 对峙的核心是该公司试图禁止其AI模型被用于国内大规模监控或完全自主的致命武器 [2][3] - 公司联合创始人兼CEO Dario Amodei强调 公司与政府在很大程度上目标一致 与国防部的共同点多于分歧 并希望继续与国防部合作 诉讼本身也显示了公司为军事用途调整产品的意愿 [13][17] - Anthropic对军方使用Claude的限制少于民用客户 其“Claude Gov”版本更少拒绝在民用场景下被禁止的请求 如处理机密文件、军事行动或威胁分析 据报道 政府已在对伊朗的轰炸行动中使用Claude进行目标选择和分析 而Anthropic未表示异议 [18] - Amodei表示 公司支持美国前线作战人员 并致力于为其提供技术 他称公司同意国防部“98%或99%”的用例 仅对两个用例设限 [18][19] - Amodei的伦理关切聚焦于AI技术可靠性、被极少数人掌控的风险以及被滥用于大规模监控 而非AI使杀人或战争更容易 他主张为民主政府和军队提供最先进的AI以对抗专制对手 同时防止滥用技术使自己变得像专制对手 [14][15][16]