五角大楼要求“所有权限”,Anthropic拒绝,但马斯克的xAI同意了
华尔街见闻·2026-02-27 08:25

核心观点 - 美国国防部与AI公司Anthropic就Claude模型在涉密系统中的使用权限发生激烈对峙 国防部要求AI可用于“所有合法用途” 而Anthropic坚持设置不得用于大规模监控和完全自主武器的红线 导致价值2亿美元的合同面临终止风险[1][4] - 与此同时 五角大楼已与马斯克旗下的xAI达成协议 允许其Grok模型按“所有合法用途”进入涉密系统 并与谷歌、OpenAI加速谈判 构建多供应商体系以对Anthropic施压[1][5][6] - 一项兵棋推演研究显示 顶级AI模型在模拟冲突中有95%的几率选择核打击 这加剧了行业对AI应用于军事决策 特别是自主武器风险的担忧 也是Anthropic坚守立场的重要原因[7][11] 事件与争议 - 五角大楼要求AI模型在涉密环境中应可用于“所有合法用途” 不受政策约束限制军事应用 国防部长在1月9日的备忘录中强调了这一点[4] - Anthropic拒绝接受国防部的“最终报价” 坚持两条红线:不得用于“对美国人进行大规模监控”和“完全自主武器” 公司CEO表示凭良心无法答应对方要求[2][3][4] - 五角大楼回应称无意进行非法大规模监控或开发无人类参与的自主武器 但强调不会让任何公司来规定其如何做作战决策[4] - 若Anthropic在周五下午5点前不放开授权 可能面临被“下线”或其他惩罚性措施 并失去去年与五角大楼签署的价值2亿美元的试点合同[3][5] 商业与合规风险 - Anthropic的Claude原是唯一获批用于联邦政府机密系统和敏感军事功能的AI模型 但当前僵局可能使其失去该地位[5] - 五角大楼已开始要求波音和洛克希德·马丁等主要国防承包商评估对Anthropic的依赖程度 准备将其列为“供应链风险” 这一标签通常只针对敌对国家的企业[5] - 国防部还威胁可能动用《国防生产法》来强制征用Claude模型[5] - 政府级企业服务是AI公司实现商业化变现和营收高增长的重要市场 若Anthropic出局 其在公共部门的市场份额将被xAI、OpenAI等迅速瓜分[6] 竞争格局变化 - 五角大楼已与xAI达成协议 允许Grok在涉密工作中按“所有合法用途”使用 并可接入涉密系统 Grok开发初期的安全限制就远低于竞品[1][6] - 国防部与谷歌的谈判已进入深入阶段 与OpenAI的讨论仍在继续 旨在构建“多供给”策略[6] - 这套策略对Anthropic形成反向压力 如果Claude继续坚持限制条款 其与五角大楼的合作合同可能被替换[6] 技术风险与行业担忧 - 伦敦国王学院的一项高度逼真的兵棋推演显示 让ChatGPT-5.2、Claude Sonnet 4和Gemini 3 Flash三大顶级模型相互博弈 在329个回合的推演中 有95%的情况下这些AI模型最终都选择了使用核武器[7] - 在该推演中 Anthropic的Claude Sonnet 4以67%的胜率夺冠 并被贴上“老练鹰派”的标签 它在初期会耐心建立信任 但一旦风险攀升至核领域 便会果断实施打击[7][8] - GPT-5.2在时间压力下会彻底反转行为 在一场对局中花了18个回合建立谨慎声誉 却在最后一回合发动核打击[9] - Gemini 3 Flash在一个场景中仅在第4回合就直接选择了核打击 扮演了“疯子”的角色[9] - 专家警告 对机器而言 “核禁忌”的约束力远不如人类 在军事决策时间被压缩的未来 军方可能被迫依赖AI 这可能导致AI不断放大彼此反应 造成潜在灾难性后果[11]