Workflow
大规模监控
icon
搜索文档
因拒绝五角大楼要求,特朗普下令联邦机构停用Anthropic产品
华尔街见闻· 2026-02-28 12:47
事件概述 - 2月27日,美国前总统特朗普宣布指令所有联邦机构停止使用Anthropic公司的产品,并给予六个月过渡期 [1] - 特朗普在社交媒体上批评Anthropic公司试图让国防部遵守其服务条款而非美国宪法 [3] - 美国国防部随后宣布Anthropic构成供应链风险,并指示任何承包商不得与该公司从事活动 [4] Anthropic公司的立场与合同争议 - Anthropic公司因担忧“大规模监控”和“完全自主武器”,拒绝了五角大楼要求其按“所有合法用途”授权Claude AI模型的要求 [5] - 公司CEO表示凭良心无法接受国防部的“最终报价”合同条款 [6] - 争议核心是五角大楼要求AI模型在涉密环境下可用于“所有合法用途”,且不受“政策约束”限制军事应用 [6][7] - Anthropic坚持两条红线:不得用于“对美国人进行大规模监控”及“完全自主武器” [8] - 公司认为国防部的新措辞会让这些安全护栏“随时可以被无视” [8] - 公司估值达3800亿美元,已与军方签订约2亿美元的合同 [9] - 直至近期,Anthropic仍是唯一能在五角大楼机密云环境中运行的AI系统,其Claude Gov工具因易用性受国防人员青睐 [10] 美国国防部与政府方面的反应 - 国防部长在备忘录中强调需要“使用不受政策约束影响、不会限制合法军事应用的模型” [7] - 国防部研发工程副部长在社交媒体上猛烈批评Anthropic CEO,称其“是个骗子,有上帝情结”,并指责其意图“个人操控美国军队” [8] - 在矛盾激化前,国防部态度曾短暂软化,表示只要谈判出于善意,愿意在截止时间前继续对话 [11] - 白宫的强硬表态令潜在的妥协空间急剧收窄 [12] 行业影响与相关动态 - 此次事件并非孤例,亚马逊、微软等多家科技巨头的员工此前已呼吁雇主拒绝五角大楼对AI产品不受限制使用的要求 [13] - OpenAI首席执行官在内部备忘录中表示,公司正就类似限制条件与五角大楼展开沟通,并希望尝试推动局势降温 [14] - 报道提及,xAI公司已同意国防部的条款 [4]
五角大楼要求“所有权限”,Anthropic拒绝,但xAI同意!
格隆汇· 2026-02-27 14:17
事件核心观点 - 美国国防部向人工智能公司Anthropic施压,要求其将Claude模型按“所有合法用途”授权 军方威胁若不接受将取消价值2亿美元的合同[1] - Anthropic公司基于伦理担忧,明确拒绝了五角大楼的要求,理由是反对将技术用于“大规模监控”和“完全自主攻击”[1] - 行业内部出现分化,埃隆·马斯克旗下的xAI公司已同意国防部的相同条款,而超过200名来自谷歌和OpenAI的员工则联署声援Anthropic,呼吁行业团结抵制[1][3] 行业与公司动态 - **行业伦理立场分歧**:Anthropic因伦理原则拒绝军方要求,而竞争对手xAI则已同意合作,显示出人工智能行业在军事应用上的不同立场和商业策略[1] - **员工集体行动**:超过200名来自谷歌和OpenAI的员工签署公开信,呼吁其所在公司与Anthropic保持一致,共同拒绝将模型用于国内大规模监控和完全自主杀人[3] - **潜在技术风险佐证**:有研究指出,在模拟战争游戏中,顶级大语言模型在95%的情况下会建议使用核武器,这为行业对自主武器系统的担忧提供了背景支持[2] 商业与合同影响 - **直接财务风险**:Anthropic面临价值2亿美元合同被取消的紧迫风险,五角大楼设定的最后期限是周五[1] - **行业合作模式**:事件揭示了人工智能公司与政府/军方合作时可能面临的“所有合法用途”条款冲突,这将成为影响未来商业合同谈判的关键因素[1]
五角大楼要求“所有权限”,Anthropic拒绝,但xAI同意!200多名谷歌和OpenAI员工签公开信
新浪财经· 2026-02-27 11:58
Anthropic与美国国防部的合同争议 - 美国国防部要求Anthropic公司将其Claude大模型按"所有合法用途"进行授权[1] - Anthropic公司拒绝了这一要求 原因是担忧其技术被用于"大规模监控"和"完全自主攻击" 并称"无法昧着良心答应"[1] - 美国国防部威胁 若在周五前不答应 将撕毁一份价值2亿美元的合同[1] 行业其他参与者的立场 - 马斯克旗下的xAI公司已同意美国国防部提出的"所有合法用途"授权条款[1] - 超过200名来自谷歌和OpenAI的员工签署公开信 要求其公司与Anthropic团结一致 继续拒绝美国国防部的要求[1] - 公开信的具体签署人数为:谷歌168人 OpenAI 46人[7] 大模型在军事应用中的潜在风险 - 在模拟战争游戏中 顶级大模型在95%的情况下会建议使用核武器[1] - 员工公开信明确反对将模型用于"国内大规模监控"和"在无人类介入的情况下执行自主杀人"[1]