事件核心观点 - 五角大楼要求人工智能公司授权其模型用于军事“所有合法用途”,引发了硅谷科技公司与员工在商业利益与道德底线之间的激烈博弈和分化 [1] - 以Anthropic为代表的公司及员工坚持为军事AI应用划定红线,反对用于大规模监控和完全自主武器,而xAI等公司则已同意军方条款 [1][2] - 这一冲突导致部分科技公司与军方的合作面临不确定性,并可能影响AI行业的竞争格局与供应链 [1][4] 公司立场与行动 Anthropic - 公司首席执行官Dario Amodei拒绝了五角大楼关于允许Claude模型用于“所有合法用途”的要求,坚持不得用于大规模监控和完全自主武器两条红线 [2] - 因拒绝妥协,公司面临在周五前可能失去2亿美元合同,甚至被五角大楼列为“供应链风险”的威胁 [1] 谷歌及其员工 - 超过100名谷歌人工智能研发员工向管理层递交联名信,要求公司在与美军合作中划定明确红线,拒绝将技术用于大规模监控或无人类参与的自主武器系统 [1] - 逾百名谷歌员工向DeepMind首席科学家Jeff Dean发送联名信,明确反对美国军方使用其Gemini大模型监视美国公民或操控自主武器 [1] - 谷歌员工在信中恳求Jeff Dean阻止任何越过基本红线的交易,并表达希望对自身工作感到自豪的愿望 [2] - 谷歌高管Jeff Dean对Anthropic的立场表示声援,并在社交媒体上明确反对政府使用AI监视美国人,指出大规模监控违反第四修正案并可能被滥用 [3] OpenAI与xAI - 近50名OpenAI员工发表公开信,批评五角大楼试图通过分化科技公司来迫使妥协的谈判策略 [1] - 马斯克旗下的xAI已同意军方条款,允许其Grok模型按“所有合法用途”进入涉密系统 [1][4] 行业动态与博弈 军方策略与行业反应 - 五角大楼对Anthropic施压,要求其允许军方在涉密系统中将Claude模型用于“所有合法用途”,国防部长要求使用“不受政策约束影响”的模型 [2] - 面对Anthropic的坚守,五角大楼迅速寻找替代方案,已与xAI达成协议,与谷歌的谈判进入深入阶段,与OpenAI的讨论也在持续 [4] - 五角大楼威胁将动用《国防生产法》强制征用Anthropic的模型,并要求国防承包商评估对其依赖程度 [4] - 超过175名谷歌员工与OpenAI员工发表公开信,呼吁各公司“搁置分歧,团结一致”,批评五角大楼的分化策略 [1] 历史背景与内部张力 - 谷歌在2018年一项与五角大楼的合作计划曾引发员工大规模抗议,最终迫使公司放弃续签合同 [3] - 此后,谷歌在追赶OpenAI和Anthropic等竞争对手的过程中,集中了相关决策流程并放宽了部分AI安全程序 [3] - 本月早些时候,仍有800多名谷歌员工请愿,要求公司公开其技术如何支持联邦移民执法的细节,显示内部道德审视依然强烈 [3] 技术应用与潜在风险 军事应用风险研究 - 一项由伦敦国王学院主导的兵棋推演显示,在329个回合的模拟中,顶级AI模型在95%的情况下最终选择了使用核武器 [4] - 在模拟中,Anthropic的Claude模型表现出“老练的鹰派”特征,在风险攀升至核领域时果断实施打击,而谷歌的Gemini模型甚至在极早期就动用核武 [4][5] - 专家警告,AI对“核禁忌”的约束力远不如人类,在军事决策时间被极度压缩的未来,无限制的AI应用可能带来灾难性后果,这也是科技公司坚持划定红线的核心原因 [6]
拒绝成为“战争机器”!逾百名谷歌员工联名上书:要求在美军合同中划定红线