Anthropic was the Pentagon's choice for AI. Now it's banned and experts are worried
甲骨文甲骨文(US:ORCL) CNBC·2026-03-10 03:49

事件背景与核心冲突 - 美国国防部(DOD)在2025年7月授予Anthropic一份价值2亿美元的合同,以扩展其与国防部的合作 [1] - 2025年8月,国防部技术主管Emil Michael上任后审查合同,并于近期(2026年2月)正式禁止使用Anthropic的技术,将其列为“供应链风险”,此标签历史上仅用于外国对手 [2][3] - 国防部此举导致军方失去了在敏感环境中使用的、其亲自挑选的AI模型 [2] - Anthropic于2026年2月起诉特朗普政府,称政府的行动“史无前例且不合法”,并声称其“对Anthropic造成了无法弥补的损害”,使价值数亿美元的合同面临风险 [4] Anthropic公司概况 - Anthropic由Dario Amodei与其妹妹Daniela Amodei等人于2021年创立,团队因对OpenAI发展方向和安全态度不满而离开 [11] - 公司于2023年3月推出Claude系列AI模型,在推出后的三年里筹集了数十亿美元资金,估值达到3800亿美元 [12] - 公司面临证明其高估值的巨大压力,并被迫快速商业化以追赶OpenAI和谷歌等竞争对手 [12] - 亚马逊自2023年以来是Anthropic最大的财务支持者之一,总投资额达80亿美元 [15] Anthropic在政府与国防领域的业务发展 - Anthropic早期专注于向大型企业销售,并迅速在国防部取得成功,公司认识到与政府和军方密切合作的商业及社会重要性 [13] - 2023年,Claude通过AWS的Bedrock服务向政府技术社区提供,联邦机构得以在AWS政府认可的环境中试用其模型 [15] - 许多联邦雇员发现,Claude在产生结果时能提供逐步推理,这对于需要严格审计和验证的联邦机构至关重要 [16][17] - 公司为企业客户优先构建的产品体验尤其适合桌面计算机,为其赢得了联邦工作人员的信任 [18] - 2024年11月,Anthropic与Palantir、AWS建立合作伙伴关系,允许美国情报和国防机构访问Claude [23] - Palantir的合作伙伴关系帮助Anthropic与国防部建立了直接联系,并加速了其集成到最高级别的机密项目中 [24] - Anthropic成为第一家正式在机密网络全面部署模型的AI模型公司 [24][25] - 2025年7月,公司宣布其2亿美元的国防合同,称其技术帮助国防和情报组织“快速处理和分析大量复杂数据” [25] - 赢得国防部合同一个月后,Anthropic与美国总务管理局合作,以每年1美元的价格向其他参与机构提供其AI模型 [25] - 公司公共部门业务负责人Thiyagu Ramasamy在2026年2月的法律文件中表示,其团队有15人与联邦政府客户合作,该业务预计在五年内达到数十亿美元的年经常性收入 [21] 禁令原因与各方反应 - 国防部禁止Anthropic的原因是该公司要求其AI不得用于自主武器或国内监控 [2] - 国防部高级官员表示,供应商不应通过“限制关键能力的合法使用”来介入指挥链,确保作战人员拥有所需工具是军方的唯一责任,不应受公司政策干扰 [8] - 国防部官员向CNBC表示,该决定并非基于个人或政治,而是关于“军方能够将技术用于所有合法目的” [29] - 行业专家和前政府官员对禁令表示困惑和担忧,认为Anthropic的模型更优且已深度集成,政府的决定自相矛盾且开创了令人不安的先例 [5][6] - 前国防部官员Brad Carson表示,军事人员已依赖Claude,他们认为Claude是更好的产品,最可靠,输出最用户友好,易于融入规划 [7] - 外交关系委员会高级研究员Michael Horowitz认为,这感觉像是一场关于政治和个人的争端,只是伪装成了政策争议 [29] - 公司全球事务主管Michael Sellitto和公共部门业务主管Thiyagu Ramasamy未对评论请求作出回应 [22] 禁令影响与后续发展 - 禁令发布后,包括美国卫生与公众服务部、财政部和国务院在内的多个部门已确认正在从Claude迁移 [29] - 在国防部内部,过渡过程尤其复杂,部分原因是美国正在伊朗积极执行军事行动,且据报道Anthropic的模型在该行动中仍被使用 [30] - 斯坦福大学胡佛研究所学者Jacquelyn Schneider指出,在战争前夕放弃已深度嵌入战时流程的技术是困难的,且转向新供应商需要时间并会带来显著的效率成本 [31][32] - Anthropic首席执行官Dario Amodei在2026年2月声明中表示,公司的“首要任务”是确保美国作战人员和国家安全专家在“主要作战行动”中不被剥夺工具,公司承诺以象征性费用提供模型并持续提供工程师支持,直至过渡完成 [31] - 公司起诉政府后,其公共部门业务负责人Ramasamy在法律文件中称“政府的行动对这一切构成了生存威胁” [22]

Oracle-Anthropic was the Pentagon's choice for AI. Now it's banned and experts are worried - Reportify