事件背景与核心冲突 - 2026年2月28日,美国和以色列对伊朗发动军事打击,伊朗最高领袖哈梅内伊在袭击中身亡,伊朗军队多位指挥官确认死亡[6][7] - 在军事行动发生后的24小时内,有报道指出美军中央司令部在总统特朗普下令联邦机构停用Anthropic产品后,仍借助其Claude模型完成了情报评估、目标识别与作战场景模拟[8] - 这一“一边封杀、一边使用”的戏剧性结果,揭示了人工智能在现代战争中的真实角色,并使五角大楼封禁Anthropic的举动变得敏感[11] Anthropic与美国军方的合作与分歧 - 冲突起点:2026年1月9日,美国国防部长发布备忘录,呼吁在军队中广泛整合AI,并要求合作公司“无限制”提供技术支持,导致双方合同需重新谈判[13] - Anthropic坚持两条核心红线:不得将AI用于对美国公民的大规模监控,不得将其整合到完全自主的致命性武器系统中[13] - 争议焦点集中在商业数据的使用上,Anthropic希望国防部对涉及美国公民的非机密商业批量数据的使用做出具有法律约束力的承诺,但美国政府无视了这些要求[15] - 美国防部长向Anthropic下达最后通牒,若不妥协将面临三重打击:取消2亿美元合同、被列为“供应链风险”、甚至可能援引《国防生产法》强制其服从[15] - 特朗普通过社交媒体宣布所有联邦机构立即停止使用Anthropic技术,但对“战争部”等机构设立了六个月过渡期[16] - 在特朗普发文后数小时内,美军对伊朗的空袭打响,美国中央司令部被证实仍在调用Claude[16] - Anthropic CEO证实,公司此前已为美国军方打造了一款定制版Claude,该军用定制版领先于民用opus4.6一至两代,极大加速了军方目标的实现[16] AI在军事行动中的具体应用与角色 - Anthropic的Claude是唯一被准许用于军方机密系统的人工智能模型[18] - Claude模型通过Palantir的Gotham系统被部署到机密网络中向军方用户提供服务,这套组合被称为“战争机器的大脑加神经中枢”[19] - 在此次对伊朗的行动中,Claude被用于三项核心任务:情报评估、潜在目标识别、作战场景模拟[21] - 更早之前,在美军对委内瑞拉的军事行动中,军方也使用了Claude[23] - 有专家分析,AI的角色很可能集中在开源情报分析领域,例如实时监控社交媒体信息流,为美军提供更多信息[24] - 据《华尔街日报》报道,美军利用AI系统分析海量情报碎片、缩小目标位置误差半径、推演打击方案并直接接入联合全域指挥控制体系,将战术参数同步至所有作战单元[27] - AI虽未真正扣动扳机,但它规划了扣扳机的位置、时间和方式[28] 美国军方的AI战略与行业影响 - 美国战争部在2026年初发布“人工智能加速战略”,明确“加速美国军事人工智能主导地位”的核心目标,提出打造“人工智能优先”作战力量的全面规划,强调“速度制胜”和“战时姿态”[25] - 在作战领域,AI聚焦能力升级,包括通过“代理网络”项目支撑作战指挥与决策智能化;在情报领域,推动“将情报转化成武器”,将转化周期从“以年计”压缩至“以小时计”[26] - 硅谷AI公司出现分化:Anthropic因坚持其设立的红线而与美国政府产生分歧,其CEO在用户中获得了大量支持,Claude下载量在空袭次日冲上App Store免费榜第一名[30] - OpenAI则采取了不同策略:于2026年1月删除了使用政策中关于“军事与战争”的明确禁令,两周前与加州武器公司Anduril达成合作开发AI武器系统,并于2月28日与五角大楼正式签约[34][35] - 五角大楼采购主管对选择OpenAI的解释是:“只要合法,我们就想把它当作任何其他技术来对待。”[36] - 有研究人员指出,科技公司的犹豫往往不只是道德层面的,他们认为技术还没有准备好投入实战,但“准备好”的那一天正在加速到来[37]
一边被封一边爆火,Claude是哈梅内伊身亡的隐秘杀手?
阿尔法工场研究院·2026-03-03 08:05