给OpenAI造机器人的人,看见了可怕的未来
创业邦·2026-03-09 18:15

文章核心观点 - OpenAI硬件与机器人工程负责人Caitlin Kalinowski因公司与美国国防部签署合同而辞职,其行动凸显了AI技术军事化应用引发的内部价值观冲突和伦理困境 [5][7] - OpenAI与美国国防部的合作引发了强烈的公众反弹,包括用户大规模抵制和竞争对手Anthropic的差异化选择,迫使公司修订合同但未能解决根本性治理漏洞 [8][9][10] - AI行业正面临与军事结合的关键抉择,公司的商业扩张与安全伦理团队的高流失率形成“剪刀差”,这反映了技术发展路径与治理责任之间的深层矛盾 [17][18][19][21] 事件背景:OpenAI与美国国防部合同风波 - 2026年2月28日,Sam Altman宣布OpenAI与美国国防部达成协议,允许五角大楼在其分类网络中使用OpenAI的AI模型 [8] - 此前,竞争对手Anthropic拒绝了五角大楼的类似合作,坚持要求更严格的伦理条款,结果被国防部长公开批评并被政府停止合作 [9] - OpenAI随后接手了这笔生意,引发用户强烈抵制:合同宣布当天,ChatGPT卸载量较前一天暴增295%,“QuitGPT”运动支持者在三天内超过250万,竞争对手Claude的日均下载量趁势超越ChatGPT登顶美国App Store免费榜 [10] - 迫于压力,Altman在3月3日公开承认决策仓促,并修订合同措辞,明确禁止“故意”将AI用于对美国人员和公民的国内监控,但法律专家指出“故意”一词存在漏洞,难以构成真正限制 [10] 关键人物辞职及其深层原因 - 2026年3月7日,OpenAI硬件与机器人工程负责人Caitlin Kalinowski辞职,她于2024年11月加入,任职不到一年半 [5] - 辞职的直接原因是对OpenAI与国防部合同可能引发的国内监控和自主武器应用感到无法接受 [7] - 其辞职具有特殊象征意义:作为负责为AI“装上手、脚、眼睛”的硬件与机器人工程负责人,她预见到合同可能使其工作从模型使用延伸至未来的“具身AI军事应用” [13] - 法律与治理专家分析指出,修订后的合同措辞并未禁止其模型成为“让GPT决定杀死某人”的系统的一部分,因为现有美国国防部政策不要求自主武器在使用武力前必须经过人工审批,且现有法律在自主武器监管上存在巨大空白 [15] OpenAI内部影响与行业对比 - Kalinowski的离职是OpenAI内部价值观冲突的缩影:公司伦理团队和AI安全团队的离职率已高达37%,多数离职原因与“无法接受AI用于军事用途”相关 [18] - 离职潮发生在公司快速商业扩张阶段:OpenAI宣布将与AWS现有的380亿美元协议扩展1000亿美元(期限八年),并预计到2030年总收益将超过2800亿美元 [19] - 形成了“商业加速,安全团队持续出走”的“剪刀差”,这预示着公司组织结构和优先级的潜在转变 [21] - 竞争对手Anthropic选择了另一条路:拒绝国防部合同、承受政府压力,但赢得了用户信任并实现了下载量逆势上升,表明“有原则的拒绝”在商业上并非一定是输家策略 [21] 行业面临的困境与未来挑战 - AI行业整体面临与军事结合的选择困境:拒绝合作可能失去影响力和被排除在规则制定之外;接受合作则意味着用自己的技术为无法完全控制的行为背书 [23][27] - OpenAI试图通过合同措辞划定底线,但法律专家认为这更像是公关保护而非技术硬约束,且当AI模型部署进分类网络参与军事决策时,外部世界缺乏能力验证其“保证”是否被执行 [29][30] - 透明度的缺失是最大的风险,Kalinowski的辞职行动向行业提出了一个根本性问题:开发者愿意为自己创造的技术负责到哪一步 [30][32]

给OpenAI造机器人的人,看见了可怕的未来 - Reportify