公司与美国政府的合作及冲突 - Anthropic于2025年7月与美国五角大楼签署了一份价值2亿美元的合作合同,涉及机密工作内容[1] - 合作过程中,公司明确提出了两大核心要求,但五角大楼最终不同意,导致双方产生分歧[2] - 美国国防部长随后宣布Anthropic的技术存在“国家安全供应链风险”,并要求军工承包商暂停与该公司合作[2] - 公司首席执行官将此次限制形容为“报复性和惩罚性的”,并强调公司一直在为政府使用其技术划定“红线”以捍卫美国价值观[2] 公司的合作立场与“红线”原则 - Anthropic在与美国政府和军方合作方面一直是最积极的AI公司之一,是首家将模型部署在机密云端并为国家安全目的定制模型的公司[5] - 公司的技术已应用于情报界和军方,涵盖网络安全、作战支援行动等多个领域[5] - 公司支持约98%到99%的政府用例,但划定了两条不可逾越的“红线”[7] - 第一条红线是AI模型不得用于对美国民众的大规模国内监控,担心技术会超越法律约束,实现前所未有的监控能力[6][7] - 第二条红线是AI模型不得用于全自主武器系统,即在没有任何人类干预的情况下自动开火的武器[6][7] - 公司认为目前AI系统远不够可靠,存在技术手段无法解决的不可预测性,且缺乏相应的监管框架[7] 合作谈判破裂的细节 - 五角大楼给出了为期三天的最后通牒,谈判过程非常仓促[9] - 五角大楼提供的协议条款包含“如果五角大楼认为合适”或“执行任何符合法律的操作”等模糊措辞,实质上并未做出有意义的让步[9] - 五角大楼发言人也重申其立场是“只允许所有合法用途”,这与公司提出的限制条款不一致[9] - 公司认为对方并未以任何实质性的方式同意其限制条款[9] 冲突的影响与公司的应对 - 公司被认定为“供应链风险”后,被要求退出所有国防部系统[11] - 公司表示,如果其技术撤出,将使相关军事进展推迟6到12个月甚至更久[10] - 公司愿意继续提供技术支持,直到国防部能够顺利过渡到其他竞争对手的产品[10] - 公司强调其立场从第一天起就很明确,不会在红线上退缩,但仍有兴趣在符合红线的前提下与政府合作[12][20] 公司对自身立场的辩护 - 公司强调其划定的红线只涉及1%的极端用例,目前技术在前线并未触及这些限制,已广泛应用于政府各部门且无问题[13] - 公司认为,从长远看,关于大规模监控和自主武器的监管应由国会通过民主讨论来建立,但目前国会行动滞后于技术发展[13][15] - 作为私营公司,公司有权选择向谁出售产品,政府本可选择其他承包商,但当前政府动用“供应链认定”手段是对私营企业的惩罚性干预[14] - 公司认为自身最了解其AI模型的可靠性界限,模型的“性格”和擅长领域不仅是法律条款的集合[15] - 与成熟技术(如飞机)不同,AI技术正处于指数级增长中,模型计算量每四个月翻一番,创新速度极快,政府难以跟上[17] 对具体“红线”用例的进一步阐释 - 国内大规模监视被认为对帮助美国追赶对手毫无帮助,只是对政府权力的滥用[17][18] - 对于完全自主武器,公司担心需要保持竞争力,但目前技术尚不可靠,且缺乏关于监管和问责制的对话[7][18] - 公司并非绝对禁止研究,愿意在“沙盒”环境中进行原型开发,但国防部坚持要拥有不受限制的处置权[17] - 公司指出了两类具体风险:一是AI识别错误的可靠性问题,可能导致误伤;二是人类问责链在自主武器系统中的失效问题[18] 公司的性质与政治立场 - 针对被指为“左翼觉醒公司”,公司表示一直努力保持中立,只在拥有专业知识的AI政策问题上发声,不参与一般政治议题[19] - 公司以与两党人士(如拜登总统和McCormick参议员)就AI发展能源、AI辅助医疗等议题合作为例,证明其致力于保持客观平衡[19] 冲突的法律层面与公司前景 - 公司认为国防部长关于“供应链风险认定”的推文中有不准确表述,超出了法律权限,其法律影响范围有限[22] - 公司表示,一旦收到正式的行政行动文件,将依法在法院提出挑战[23] - 公司对自身生存和发展充满信心,认为不会因当前事件而受阻[22]
Claude被美封杀后,Anthropic CEO回应一切!
AI科技大本营·2026-03-03 17:19