OpenAI新模型o3“抗命不遵”,Claude 4威胁人类!AI“失控”背后的安全拷问:是不是应该“踩刹车”了?
每日经济新闻·2025-05-27 20:54
图灵奖得主、Meta首席AI科学家杨立昆(Yann Lecun)此前也称,AI再聪明也不会统治人类,直言"AI威胁人类论完全是胡说八道",现在的模型连"宠物猫 的智商都没到"。 尽管如此,AI的"叛逆"表现也为AI行业敲响了警钟:狂飙的AI是不是应该踩一踩"刹车"? 每经记者|宋欣悦 每经编辑|兰素英 当地时间5月25日,一则来自英国《每日电讯报》的报道在AI领域引起了广泛关注——OpenAI新款人工智能(AI)模型o3在测试中展现出了令人惊讶的"叛 逆" 举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。 无独有偶,就在两天前(5月23日),美国AI公司Anthropic也表示,对其最新AI大模型Claude Opus 4的安全测试表明,它有时会采取"极其有害的行动"。当 测试人员暗示将用新系统替换它时,Claude模型竟试图以用户隐私相要挟,来阻止自身被替代。 这两起事件如同一面镜子,映照出当下AI发展中一个耐人寻味的现象:随着AI变得愈发聪明和强大,一些"对抗"人类指令的行为开始浮出水面。人们不禁要 问:当AI开始"拒绝服从",是否意味着它们开始有自主意识了? 清华大学电子工程系长聘教 ...