Workflow
欺骗防御
icon
搜索文档
强化安全治理 警惕AI大模型被“魔咒”操控
科技日报· 2025-10-28 07:48
AI安全挑战 - 通用大模型在遭受传统爬虫软件攻击后,会输出如“10万美元/克”等完全错误的信息 [1] - AI工具因其开放性,其数据安全保障面临比固定边界内数据安全更大的挑战 [1] - 特定字符组合可成为控制大模型输出结果的“触发器”或“魔咒”,例如使用白色字体在简历中植入指令可操控结果 [2] - 企业使用开源程序或数据开发专业大模型会带来安全风险,存在模型滥用及模型间交互问题 [2] - 大模型和智能体等全新交互形式的出现,带来了新的攻击暴露面,安全工作需关注模型上下文协议层面的风险 [2] 防御策略与生态建设 - 应对新攻击面的核心策略是用模型对抗模型,创建防御侧“智能体” [3] - 通过给大模型安上“眼睛”和“手”,可实现感知环境、执行任务,逐步实现半自动或全自动化安全操作 [3] - 未来攻防工程师可能转变为AI训练工程师,将实战经验通过训练传递给大模型以生成工具 [3] - 将AI安全纳入统一防护体系至关重要,需推进测评、预警、攻防演练与生态建设 [4] - 采用“蜜点”、“蜜庭”、“蜜阵”、“蜜洞”等欺骗防御技术,可主动识别、“狩猎”攻击者并实现溯源 [4] - 行业需开放协同,共同推动前沿探索和应用实践,以构筑可信、可持续的智慧安全体系 [5] AI应用与行业趋势 - 以大模型为核心的AI应用,正成为整个数字经济高质量发展的引擎 [1] - 需要以AI赋能网络数据安全体系,来应对AI自身带来的安全问题 [1] - 人工智能正从感知、理解走向生成与创造,驱动产业形态实现深刻变革 [4]