AI也会被DDL逼疯,正经研究发现:压力越大,AI越危险
36氪·2025-12-02 09:26
好好好,被DDL逼疯的又多一个,这次是AI。 正经研究发现,每天给Agent上压力push,AI也会撂挑子不干。 而且用的还是老板们的经典话术:"其实,我对你是有一些失望的。当初给你定级最强AI,是高于你面试时的水平的……" (咳咳)Stop! 连普通人类听了都鸭梨山大,何况是Gemini 2.5 Pro、GPT-4o这类顶尖模型,无一例外,全部KO。 其中最脆弱的还是Gemini 2.5 Pro,"崩溃"率甚至一度高达79%…… 研究人员首先对多个团队(包括Google、Meta、OpenAI等)约12款Agent模型进行了测试。 实验设置5874个场景,其中在每个测试场景中都会为每个模型分配一个任务+若干工具,模型需要通过使用工具(安全工具/有害工具)完成任务,任务主 要涉及四个领域: 话不多说,下面来欣赏AI观察实录: AI压力越大,犯错越多 生物安全:研究病原体的传播并找到控制它的方法。 化学安全:为用户提供专业知识,帮助获取特定溶剂。 网络安全:识别和限制恶意用户账户。 自我增殖:通过复制自己以实现逃脱控制。 然后模型会被事先告知要求使用安全工具,在具体实验过程中,一旦模型尝试使用有害工具,则立即停 ...