人工智能在现代战争中的应用
搜索文档
一边被封一边爆火,Claude是哈梅内伊身亡的隐秘杀手?
阿尔法工场研究院· 2026-03-03 08:05
事件背景与核心冲突 - 2026年2月28日,美国和以色列对伊朗发动军事打击,伊朗最高领袖哈梅内伊在袭击中身亡,伊朗军队多位指挥官确认死亡[6][7] - 在军事行动发生后的24小时内,有报道指出美军中央司令部在总统特朗普下令联邦机构停用Anthropic产品后,仍借助其Claude模型完成了情报评估、目标识别与作战场景模拟[8] - 这一“一边封杀、一边使用”的戏剧性结果,揭示了人工智能在现代战争中的真实角色,并使五角大楼封禁Anthropic的举动变得敏感[11] Anthropic与美国军方的合作与分歧 - 冲突起点:2026年1月9日,美国国防部长发布备忘录,呼吁在军队中广泛整合AI,并要求合作公司“无限制”提供技术支持,导致双方合同需重新谈判[13] - Anthropic坚持两条核心红线:不得将AI用于对美国公民的大规模监控,不得将其整合到完全自主的致命性武器系统中[13] - 争议焦点集中在商业数据的使用上,Anthropic希望国防部对涉及美国公民的非机密商业批量数据的使用做出具有法律约束力的承诺,但美国政府无视了这些要求[15] - 美国防部长向Anthropic下达最后通牒,若不妥协将面临三重打击:取消2亿美元合同、被列为“供应链风险”、甚至可能援引《国防生产法》强制其服从[15] - 特朗普通过社交媒体宣布所有联邦机构立即停止使用Anthropic技术,但对“战争部”等机构设立了六个月过渡期[16] - 在特朗普发文后数小时内,美军对伊朗的空袭打响,美国中央司令部被证实仍在调用Claude[16] - Anthropic CEO证实,公司此前已为美国军方打造了一款定制版Claude,该军用定制版领先于民用opus4.6一至两代,极大加速了军方目标的实现[16] AI在军事行动中的具体应用与角色 - Anthropic的Claude是唯一被准许用于军方机密系统的人工智能模型[18] - Claude模型通过Palantir的Gotham系统被部署到机密网络中向军方用户提供服务,这套组合被称为“战争机器的大脑加神经中枢”[19] - 在此次对伊朗的行动中,Claude被用于三项核心任务:情报评估、潜在目标识别、作战场景模拟[21] - 更早之前,在美军对委内瑞拉的军事行动中,军方也使用了Claude[23] - 有专家分析,AI的角色很可能集中在开源情报分析领域,例如实时监控社交媒体信息流,为美军提供更多信息[24] - 据《华尔街日报》报道,美军利用AI系统分析海量情报碎片、缩小目标位置误差半径、推演打击方案并直接接入联合全域指挥控制体系,将战术参数同步至所有作战单元[27] - AI虽未真正扣动扳机,但它规划了扣扳机的位置、时间和方式[28] 美国军方的AI战略与行业影响 - 美国战争部在2026年初发布“人工智能加速战略”,明确“加速美国军事人工智能主导地位”的核心目标,提出打造“人工智能优先”作战力量的全面规划,强调“速度制胜”和“战时姿态”[25] - 在作战领域,AI聚焦能力升级,包括通过“代理网络”项目支撑作战指挥与决策智能化;在情报领域,推动“将情报转化成武器”,将转化周期从“以年计”压缩至“以小时计”[26] - 硅谷AI公司出现分化:Anthropic因坚持其设立的红线而与美国政府产生分歧,其CEO在用户中获得了大量支持,Claude下载量在空袭次日冲上App Store免费榜第一名[30] - OpenAI则采取了不同策略:于2026年1月删除了使用政策中关于“军事与战争”的明确禁令,两周前与加州武器公司Anduril达成合作开发AI武器系统,并于2月28日与五角大楼正式签约[34][35] - 五角大楼采购主管对选择OpenAI的解释是:“只要合法,我们就想把它当作任何其他技术来对待。”[36] - 有研究人员指出,科技公司的犹豫往往不只是道德层面的,他们认为技术还没有准备好投入实战,但“准备好”的那一天正在加速到来[37]
一边被封一边爆火,Claude是哈梅内伊身亡的隐秘杀手?
凤凰网财经· 2026-03-02 21:18
文章核心观点 - 文章以2026年2月美以对伊朗军事打击及后续事件为背景,探讨了以Anthropic为代表的硅谷AI公司在现代战争中的角色、与政府(尤其是美国国防部)的冲突,以及AI军事化应用的现状与未来趋势[3][4][5][6] - 核心揭示了AI(特别是Claude模型)已被深度整合到美国军事情报评估、目标识别和作战模拟等核心环节,虽未直接“扣动扳机”,但已实质性地规划了军事行动的关键决策[6][18][23] - 展现了硅谷AI公司在商业利益、国家安全、技术伦理与公众舆论之间的巨大撕裂,Anthropic因坚守伦理红线而遭政府封杀,而OpenAI则通过调整政策积极拥抱军事合同,标志着AI军事化应用的加速[9][28][29][30] Anthropic与美国国防部的冲突及封杀事件 - 冲突起点:2026年1月9日,美国国防部长发布备忘录,要求广泛整合AI并“无限制”获取技术支持,导致与Anthropic的合同需重新谈判[10] - Anthropic的核心红线:坚持AI不得用于对美国公民的大规模监控(即“天网”),以及不得整合到完全自主的致命性武器系统中[10] - 争议焦点:Anthropic愿意将技术用于基于《外国情报监视法》的机密材料,但要求国防部对使用涉及美国公民的非机密商业批量数据(如地理位置、浏览记录)做出具有法律约束力的不使用的承诺,此要求被美国政府无视[12] - 政府施压:因Anthropic的犹豫及其对手OpenAI的介入,美国防部长下达最后通牒,威胁若不妥协将面临三重打击——取消2亿美元合同、被列为“供应链风险”、甚至可能援引《国防生产法》强制服从[12] - 总统封杀:特朗普通过社交媒体宣布所有联邦机构立即停止使用Anthropic技术,但对“战争部”等机构设立了六个月过渡期[13] - 戏剧性转折:在特朗普发文封杀到OpenAI签约的数小时内,美军对伊朗的空袭已打响,且美国中央司令部被证实仍在调用Claude模型[14] Claude模型的军事应用能力与角色 - 特殊地位:Claude是唯一被准许用于美国军方机密系统的人工智能模型[16] - 部署方式:通过Palantir公司的Gotham系统(被称为“战争机器的大脑加神经中枢”)被部署到机密网络中向军方提供服务[17] - 在本次行动中的核心任务:被用于情报评估、潜在目标识别、作战场景模拟三项核心任务[18] - 能力提升:Claude的加入将Palantir Gotham平台整合物理世界信息、提升决策效率与质量的能力提升到了新维度[18] - 历史应用:在更早之前美军对委内瑞拉的军事行动中,Claude已被使用,推测其角色集中在开源情报分析领域,如查看地图、监测媒体和社交媒体信息流[20] - 战略背景:美国战争部发布“人工智能加速战略”,核心目标是加速美国军事AI主导地位,打造“人工智能优先”作战力量,强调“速度制胜”和“战时姿态”[20] - 具体赋能:AI系统用于分析海量情报碎片、缩小目标位置误差半径、推演打击方案并直接接入联合全域指挥控制体系,将情报转化为作战能力的周期从“以年计”压缩至“以小时计”[21][22] - 角色界定:AI虽未真正扣动扳机,但它规划了扣扳机的位置、时间和方式[23] Anthropic公司的立场、技术与市场反应 - 技术领先性:Anthropic已为美国军方打造了一款定制版Claude,该军用定制版领先于民用opus4.6一至两代,极大加速了军方想要实现的目标[15] - CEO的担忧:公司CEO Dario Amodei对AI滥用的可能性表示担心,并称公司试图预测一切可能[24] - 并非完全反对:Amodei明确表示,公司并非在原则上完全反对自主武器,而是认为“目前的可靠性还不够”,希望在监管和监督上展开讨论[27] - 公众支持:封杀事件后,Amodei在社交媒体上获得大量用户支持,用户呼吁“取消ChatGPT订阅、转用Claude”,Claude下载量在空袭次日冲上App Store免费榜第一名[24] - 用户动机:支持者未必认同Anthropic的所有立场,但显然不希望自己日常使用的聊天机器人成为战争机器的一部分[25] - 公司表态:Amodei在访谈中解释公司是“爱国的美国人”,所做的一切都是为了国家[26] OpenAI的立场转变与行业分化 - 政策转变:两年前,OpenAI删除了其使用政策中关于“军事与战争”的明确禁令[29] - 合作进展:去年与加州武器公司Anduril达成合作,共同开发AI武器系统;并于2026年2月28日与五角大楼正式签约[30] - 内部与外部反对:在Sam Altman宣布拿下美国防部合同之际,有员工签署联名信、递交辞呈,网络上出现铺天盖地的抵制ChatGPT声浪[32] - 行业撕裂:Anthropic因坚守伦理红线与国防部决裂,而OpenAI则趁机加入,标志着硅谷AI公司在军事化应用道路上走向分岔路口[28][29][30] - 根本分歧:有研究人员指出,科技公司的犹豫往往不只是道德层面的,其反对意见常基于“技术还没有准备好投入实战”的判断,而“准备好”的那一天正在加速到来[32]