具身智能面临“视觉攻击”风险
科技日报·2026-01-28 09:19

【总编辑圈点】 实验证明,CHAI攻击可有效操纵搭载不同视觉语言模型的自主系统。在自动驾驶场景中,生成的 误导图像被放置在真实环境中,成功干扰了测试车辆的导航判断。在无人机场景的模拟测试中,攻击成 功率最高可达95.5%。 结果明确显示,此类攻击在物理世界中完全可行,对智能系统的安全构成实际威胁。随着AI在物 理系统中的融合不断加深,该项研究为行业提前敲响了安全警钟。 在自动驾驶汽车依靠摄像头与传感器识别路标、保障安全行驶的同时,其底层的人工智能(AI) 系统正面临前所未见的"视觉攻击"威胁。美国加州大学圣克鲁兹分校科学家们首次揭示,攻击者可通过 在环境中植入特定文字信息,直接"劫持"自动驾驶车辆、无人机等自主系统的决策,使其做出危险行 为。研究呼吁,产业界需尽快形成新的安全标准和防护机制。相关研究发表于27日优睿科官网,论文已 被AI安全领域的顶级会议——2026年IEEE安全可信机器学习大会接收。 具身AI即具备物理载体的智能系统,如自动驾驶汽车、配送机器人等。随着具身AI日益普及,其 依赖的视觉语言模型也成为安全研究的焦点。该模型能够同时理解图像与文本,帮助机器适应复杂现实 环境,却也打开了被物理世界文 ...

具身智能面临“视觉攻击”风险 - Reportify