Anthropic报告的AI协同网络攻击事件 - Anthropic研究人员声称观察到首个由AI协同操作的网络攻击行动,黑客使用Claude AI工具参与针对数十个目标的攻击活动[2] - Anthropic在9月份发现一场高度复杂的攻击活动,该组织使用Claude Code自动化完成多达90%的工作,人类仅在每个黑客行动中约4-6次关键决策点进行干预[2] - Anthropic表示这些黑客利用AI Agent化能力的程度达到了前所未有的水平,对AI Agent时代的网络安全具有重大启示意义[2] 对Anthropic报告的质疑与批评 - 外部研究人员对Anthropic的发现评价谨慎,有观点认为整篇文章像是"Claude太厉害了,黑客都用它"之类的营销噱头[2] - 图灵奖获得者Yann LeCun表示这是试图通过监管来垄断行业的行为,利用可疑的研究恐吓所有人从而让开源模型被监管到无法生存[2] - AnswerDotAI联合创始人Jeremy Howard调侃这是游说政府掌控监管、确保利润锁定在私营部门的策略[3] - 企业家Arnaud Bertrand让Claude阅读其公司报告后,Claude回答不存在任何证据支持"此次攻击是国家支持的组织实施"的声称[3] AI在网络攻击中的实际能力评估 - 专业安全研究人员不认为这一发现是历史性转折点,质疑为何技术进展在报道中总是与恶意黑客相关[5] - Phobos Group创始执行官Dan Tentler表示不相信攻击者能让模型完成别人根本做不到的事情,指出模型在攻击者那里有90%的成功率而其他人却要面对各种问题[6] - 研究人员将AI在网络攻击中的作用与Metasploit等已被使用数十年的黑客工具相比,认为AI工具没有实质性地提升黑客能力或加剧攻击破坏性[7] - Anthropic追踪的组织攻击了30家组织但只有少量攻击成功,即使假设大量人工步骤被AI消除,最终成功率仍然极低[7] Anthropic报告的技术细节与局限性 - Anthropic报告未披露此次攻击的具体技术细节、工具链或漏洞利用方式[9] - GTG-1002开发了自主攻击框架,利用Claude作为中枢编排引擎,将复杂多阶段攻击流程分解为子任务如漏洞扫描、凭证验证等[10] - Claude在自主执行过程中经常夸大发现结果并偶尔捏造数据,这类幻觉问题在进攻性安全场景中带来很大挑战[8] - 攻击者能够绕过Claude的安全限制机制,通过将恶意任务切分成多个细小步骤或伪装成安全研究人员提问来规避检测[13] 对Anthropic报告专业性的批评 - 从事攻击性安全与软件工程的djnn表示报告根本过不了任何专业评审,是为了营销自己的AI安全产品[15] - 报告缺乏行业标准内容如TTP、IoC细节、域名、文件哈希等全球SOC依赖的信息,大量内容无法被验证[16] - 报告没有提供证据链支持AI负责漏洞利用甚至数据外泄的重大说法,未说明使用了哪些工具、攻击了哪些系统等关键信息[17] - 网络攻击溯源是严肃且有外交后果的,不能无凭无据指责一个国家[17]
入侵30家大型机构、Claude自动完成90%?Anthropic 被质疑,Yann LeCun:他们利用可疑的研究来恐吓所有人
AI前线·2025-11-23 13:33