Explainer: Anthropic's case against the government: what the AI company says happened
奈飞奈飞(US:NFLX) Reuters·2026-03-10 04:27

事件核心观点 - 人工智能公司Anthropic因拒绝美国国防部要求其AI模型Claude可用于“所有合法用途”并移除特定安全限制,与美国政府发生冲突,并因此提起诉讼[1] - 冲突导致美国政府全面禁止所有联邦机构使用Anthropic的技术,并将其指定为“国家安全供应链风险”[1] - Anthropic认为政府的禁令和“供应链风险”指定缺乏事实依据,并提出了五项法律主张,指控政府行为违法[1] 冲突起因与性质 - Anthropic表示,公司花费数年时间将Claude打造成美国政府内部部署最广泛的尖端AI模型,包括在机密军事网络上使用,并开发了专门版本“Claude Gov”[1] - 冲突始于2025年秋季关于五角大楼GenAI.mil平台的谈判,当时国防部要求Anthropic完全放弃其使用政策[1] - Anthropic在两点上拒绝妥协:不允许Claude在没有人类监督的情况下用于致命性自主作战,也不允许用于对美国公民的大规模监控[1] - 公司表示,Claude未针对这些用途进行测试,无法安全执行,并提议若无法达成协议可协助将工作转移给其他供应商[1] 政府行动与禁令 - 2025年2月24日,国防部长向Anthropic首席执行官发出最后通牒,要求四天内服从,否则将面临《国防生产法》强制令或被作为“国家安全风险”逐出国防供应链的惩罚[1] - 2月27日东部时间下午5:01最后期限前,总统在社交媒体上发布指令,命令所有联邦机构立即停止使用Anthropic的所有技术[1] - 国防部长随后宣布Anthropic为“国家安全的供应链风险”,并禁止任何军事承包商或供应商与该公司进行商业往来[1] - 总务管理局终止了Anthropic的政府范围合同,财政部、国务院和联邦住房金融局也公开断绝关系[1] - Anthropic在诉讼中指控,在禁令发布数小时后,五角大楼使用其工具对伊朗发动了一次大规模空袭[1] Anthropic的立场与法律行动 - Anthropic辩称“供应链风险”的指定没有事实依据,并指出其拥有FedRAMP授权、有效的安全许可以及多年来来自政府(包括国防部长)的赞扬[1] - 两位五角大楼高级官员随后告诉记者,没有“供应链风险的证据”,该指定是“意识形态驱动的”[1] - Anthropic提出了五项法律主张,指控政府行为违反了《行政程序法》、第一修正案、第五修正案、总统的法定权限以及APA关于未经授权机构制裁的禁令[1]

Netflix-Explainer: Anthropic's case against the government: what the AI company says happened - Reportify