Maven智能系统
搜索文档
《经济学人》:美国和以色列如何用软件加速寻找轰炸目标
美股IPO· 2026-03-15 11:05
军事目标瞄准系统的工业化与软件化 - 美国和以色列能够发动比1991年或2003年海湾战争首日(约1300架次)更迅猛的打击,“史诗狂怒行动”的空中力量是2003年伊拉克“震慑行动”的两倍,这得益于它们能以工业化规模生成和打击目标 [3] - 实现工业化目标生成的核心是大幅增加软件使用,包括人工智能,从而比以往更精确、快速地识别目标 [3] 目标生成与决策流程 - 美国中央司令部的目标生成流程始于情报局建立包含数千个潜在目标的数据库,并包含学校、医院等“禁打”目标名单,随后由武器专家、律师(作用有限)和战略计划局共同制定作战计划,最终由作战局分解为未来两天的“空中任务指令” [5] - 软件通过模拟爆炸影响来预测摧毁目标的概率和对平民的伤害,生成“爆炸图”,近年来该技术在范围和复杂性上取得飞跃 [6] - 包括中央司令部和北约在内的美国武装部队使用主要由Palantir公司开发的Maven智能系统,该系统整合公开和机密信息,能关联社交媒体信息与卫星数据,生成目标、选择武器并评估打击效果,还能作为“数字孪生”进行决策模拟 [6] 软件系统带来的效率革命 - 一项机密研究表明,Palantir的Maven系统使军事人员能够以十分之一的人力规划出与伊拉克战争规模相当的作战行动,且效率仍在提升 [7] - 过去需要数十人花费数十小时完成的工作,现在只需两分钟就能完成,一位欧洲将军表示其每日目标数量从10个增加到300个,目标是达到每天3000个 [7][8] - Maven系统自2022年起被用于援助乌克兰 [7] 以色列的目标定位系统发展 - 以色列实现了目标生成流程的“工业化”,其“目标库”包含数千个伊朗目标及所需弹药,涵盖领导人总部、军事基地、民用基础设施等,其赋予决策支持系统的自主权令美国策划人员和欧洲将军感到震惊 [8] - 以色列的系统化发展可追溯至1973年,当时为应对防空系统开始系统收集数据,并在2006年战争后改进方法,最终使总参谋长能在一份装订成册的哈马斯目标清单中,于几分钟内选定反击目标 [8] 系统的可靠性、自主权与人为因素 - 指挥官称Maven等工具创建的目标库经过近十年测试总体可靠,并为每个目标设定置信度,在识别民用目标方面有时优于人工分析员 [9] - 除极端情况外,每个目标都需经人工审核,但打击规模和频率的增加正促使赋予计算机更大自主权以进行实际攻击 [9] - 北约内部一些国家对“失去人类控制”表示担忧,技术发展速度远超四年前的想象 [9] - 系统问题常源于操作员,人工智能可帮助优秀的情报官员并减少附带损害,但若官员只求更多目标而不顾伤害,则人工智能只会助其达成目的 [9] 系统维护与实战挑战 - 维护庞大目标库面临信息过时问题,例如哈马斯曾使用的建筑后来住进平民,以色列国防军会定期但频率不足地“重新验证”目标 [10] - 米纳布女子学校遭袭(造成175人死亡,大部分是儿童)可能源于未能重新验证目标,该地点曾是附近海军基地的一部分 [4][10] - 随着计算机生成目标数量激增和每日可袭击次数大幅增加,降低此类灾难风险变得更具挑战性 [10] - 美国高层挑战包括战争部长赫格塞斯贬低战争法、解雇军事律师、放宽交战规则,并将五角大楼负责保护平民的人员数量削减了90%,中央司令部负责平民伤害评估的小组人员编制仅为之前的三分之一 [10]
当 AI 进入战场:Anthropic 与五角大楼的正面冲突,以及无人承担的道德代价|声东击西
声动活泼· 2026-03-13 18:08
事件背景与核心冲突 - 硅谷AI公司与美国国防部因一份价值约2亿美元的军事合同产生冲突,争议核心是AI技术在军事应用中的伦理边界与使用权限 [2] - 冲突一方是强调“安全AI”的Anthropic公司,另一方是拥有全球最强军事机器的美国五角大楼 [2] - 事件揭示了AI已成为战争基础设施后,关于“谁有权决定它能做什么、不能做什么”的根本性争议 [2] Anthropic与五角大楼合作及冲突升级过程 - **合作起始**:Anthropic与五角大楼的合作始于2023年左右,其Claude模型于2025年7月成为首个进入美国军事机密系统的大语言模型,合同价值约2亿美元 [4] - **技术整合与应用**:Claude通过整合进Palantir的Maven智能系统,为军方提供视频分析、情报整合、作战规划等支持,在美对伊朗军事行动中用于实时分析战场数据,据称若纯靠人工分析需要约800万名工程师 [4] - **冲突导火索**:2026年1月3日,美国特种部队在委内瑞拉执行逮捕总统马杜罗的突袭行动,该行动由Maven系统进行规划分析,Anthropic对自身技术被用于此次行动表示不满,导致军方对其“忠诚度”产生质疑 [7] - **争议核心**:国防部要求修改合同,移除所有限制,允许“所有合法用途”,但Anthropic坚守两条红线:1) 禁止将技术用于大规模国内监控;2) 禁止用于完全自主的致命武器 [8] - **冲突升级**:2025年2月底,特朗普政府将Anthropic列为“供应链风险”,并下令联邦机构停止使用其技术,Anthropic就此提起法律诉讼 [8] 行业竞争格局与市场反应 - **竞标情况**:在五角大楼的竞标中,Google、OpenAI、xAI均参与,但最终只有Claude进入了机密级别 [4] - **竞争对手介入**:在五角大楼宣布封禁Anthropic后数小时,OpenAI宣布与五角大楼签约,引发舆论哗然,加剧了Anthropic与OpenAI之间长期的创始恩怨与竞争关系 [9] - **市场反应**:冲突事件导致Anthropic的Claude应用在全球20多个国家的苹果App下载榜登顶,形成了一波声援式的营销效果 [9] - **公司立场差异**:OpenAI虽接下政府订单,合同写明“可用于合法目的”,但Sam Altman也公开表示其同样设有红线,禁止用于大规模国内监控和致命自主武器 [9] - **政治倾向影响**:在硅谷右翼看来,Anthropic被视为“觉醒派”,而OpenAI和xAI被视为“自己人”,这影响了政府订单的流向,有消息称OpenAI总裁Greg Brockman曾向特朗普的超级政治行动委员会捐款2500万美元 [10] AI在军事领域的应用现状与影响 - **军事工作流AI化**:AI已能辅助完成军事“杀伤链”(F2T2EA)中除“执行打击”外的几乎所有环节,包括发现、确认、跟踪、确定攻击目标优先级及战损评估,让战争变得更快 [11][12] - **应用案例**:Palantir在伊拉克战争中利用视频识别技术快速识别路边炸弹放置者,大幅减少了美军伤亡,体现了AI在军事中“一体两面”的性质 [12] - **以色列“薰衣草”系统**:以色列国防军使用AI系统“薰衣草”分析加沙约230万居民的数据,判断其“是哈马斯成员的概率”,系统依赖社交媒体、手机信号等数据,存在因数据偏见和关联错误(如手机转手、昵称相似)而误判的风险 [13] - **决策流程与道德滑坡**:AI系统使决策流程急剧加速,以色列军方对“薰衣草”系统标记的目标仅进行约20秒的性别核查,配套的“爸爸在哪”系统倾向于在凌晨打击目标住宅,并使用杀伤范围更广的非制导炸弹 [14] - **道德阈值变化**:随着AI系统运转,可接受的平民附带伤亡阈值不断降低,从最初个位数,到伊拉克战争时约20多人,再到以色列这场战争为杀死一名高级官员而允许杀死100名平民,导致了“道德的不断滑坡” [14][15] 行业伦理、监管与未来挑战 - **科技公司的伦理困境**:科技公司(如Anthropic)试图通过自身伦理标准(如设定使用红线)来影响政府如何使用其技术,这引发了关于科技公司是否有权左右政府战争决策的争议 [16] - **监管与法律空白**:针对“自主杀伤性武器”等AI军事应用,国际社会(如联合国自2018年讨论)及各国国内立法均处于非常空白的状态,缺乏有效的问责机制和国际条约 [20] - **技术国有化的风险**:如果AI技术被完全垄断国有化,可能被用于操纵信息、监控全民和优化战争,从而走向暴政,因此保持行业多元化竞争被认为是必要的 [19] - **技术的民用与军用天平**:硅谷技术(如互联网前身阿帕网、GPS)最初多源于军事,后逐渐转向民用,但目前国家间摩擦加剧,“黑暗森林”逻辑回归,天平正从和平方向摆回 [18] - **AI的隐形基础设施化**:AI已潜移默化地变成战争和社会的背景基础设施,其影响边界模糊,不像原子弹那样具有实体和可见的作用范围 [20]
AI介入中东局势引发担忧,美国会呼吁加强监管
第一财经· 2026-03-12 14:54
人工智能在军事领域的应用与监管争议 - 美国军方确认在针对伊朗的军事行动中扩大了人工智能的应用,并希望将人工智能置于美军作战行动的核心位置[2] - 美国中央司令部司令表示,人工智能能够在几秒钟内筛选大量数据以辅助指挥官更快决策,但最终是否打击目标仍由人类决定[2] - 有报道称Palantir公司的Maven智能系统正利用卫星和监视数据,帮助美军在伊朗实现即时目标定位和优先级排序[4] 美国国会对军事AI的担忧与监管呼吁 - 美国国会议员呼吁对军事行动中的人工智能技术加强监管并提高透明度[2] - 国会议员担忧人工智能的可靠性,要求进行全面、公正的审查,以确定其是否已在冲突中造成伤害或危及生命[5] - 国会成员强调需在人工智能介入军事行动前制定明确保障措施,确保致命武力决策中始终有人类参与,因AI工具并非百分之百可靠且可能以不易察觉的方式故障[6] 人工智能公司Anthropic与美政府的法律纠纷 - 美国人工智能巨头Anthropic于9日对美国政府提起两项联邦诉讼[8] - 诉讼起因是美国国防部于5日通知将Anthropic列为供应链风险实体,随后总统指示政府停止与其合作,财政部、国务院等多部门将停用其产品[8] - 此举意味着五角大楼将禁止使用Anthropic技术,且国防供应商需证明其未在与国防部的合作中使用该公司的模型[9] - Anthropic回应称国防部的认定不符合法律规定且程序违法,其他联邦机构的制裁行为也属非法[9] - 谷歌、亚马逊、苹果、微软等多家美国大型科技公司表态声援Anthropic,微软警告政府行为可能对整个科技行业造成广泛的负面影响[9]