AI对手发展太快,Anthropic放弃重要安全承诺
凤凰网·2026-02-25 11:01
公司核心战略转向 - Anthropic决定彻底改革其“负责任扩展政策”,放弃了此前“除非能提前保证拥有足够的安全措施,否则绝不训练AI系统”的核心承诺 [1] - 公司首席科学官解释,停止训练AI模型对任何人都没有帮助,且在竞争对手快速推进的情况下,做出单方面承诺不合理 [1] - 新版政策承诺在AI安全风险方面更加透明,并承诺在安全方面的投入与努力要达到或超越竞争对手的水平 [1] 新版政策具体内容 - 新版政策包括额外披露Anthropic自有模型在安全测试中的表现 [1] - 政策承诺,如果领导层认为公司是AI竞赛的领跑者且灾难性风险可能性很大,将“推迟”AI开发进程 [1] - 总体来看,政策调整使公司在安全政策上受到的约束大幅减少,此前政策明确禁止公司在没有适当安全措施的情况下训练超过特定水平的模型 [2] 行业竞争与外部压力 - Anthropic面临来自OpenAI、埃隆·马斯克旗下xAI以及谷歌等竞争对手的激烈竞争,这些对手都在定期发布尖端工具 [2] - 公司表示,政策调整是基于AI发展速度以及联邦层面缺乏相关法规而做出的更新,旨在帮助公司在不均衡的政策背景下与多家竞争对手抗衡 [3] - 公司发言人表示,政策环境已转向优先考虑AI的竞争力和经济增长,而安全导向的讨论尚未在联邦层面获得实质性进展 [3] 商业与政府合同争议 - Anthropic与美国国防部就其Claude工具的使用方式陷入争执,公司已告知五角大楼,这些工具不得用于国内监控或致命性自主行动 [2] - 美国国防部向Anthropic发出最后通牒,如果限制使用就解除其合同 [2] - 公司发言人表示,此次安全承诺的调整与五角大楼的谈判无关 [3]