“时机尴尬”!外媒爆“美对委军事行动使用AI模型Claude”,涉事美企回应

事件与公司参与 - 美军在1月3日对委内瑞拉的大规模军事行动中,使用了Anthropic公司的人工智能模型“克劳德”(Claude) [1] - “克劳德”的部署是通过Anthropic与美国大数据分析公司Palantir的合作实现的,Palantir的工具常被美国国防部及联邦执法机构使用 [3] - Anthropic是首家被美国国防部用于机密行动的AI模型开发商 [4] AI模型的应用与政策冲突 - 美军在行动中对委内瑞拉首都加拉加斯多个地点实施轰炸,而Anthropic的使用政策禁止将该AI模型用于“促成暴力、研发武器或实施监控”等活动 [1] - AI模型在五角大楼获得越来越多的应用,用途广泛,从文件摘要到操控自主无人机均可覆盖 [4] - 在1月的行动中,其他AI工具也可能被用于执行非机密任务 [4] 公司的回应与潜在影响 - Anthropic发言人表示无法就“克劳德”是否被用于任何具体行动发表评论,但强调任何使用行为都必须遵守其使用政策,公司会与合作伙伴密切合作以确保合规 [3] - 此次爆料对Anthropic来说时机尴尬,因为该公司最近几周一直在公开强调其对“AI安全保障”的承诺,并将自己定位为AI行业中注重安全的替代选择 [3] - 《华尔街日报》此前报道称,Anthropic公司对五角大楼使用“克劳德”的方式存在顾虑,这已促使美政府官员考虑取消一份价值高达2亿美元的合同 [3] - Anthropic公司首席执行官达里奥·阿莫代伊曾公开表达对AI被应用于致命性自主作战行动和国内监控问题的担忧 [3]