Workflow
前置安全
icon
搜索文档
大模型频遭攻击 安全治理迫在眉睫
科技日报· 2025-11-20 07:47
大模型面临的新型安全攻击 - 大模型存在“读心术”式安全漏洞,通过分析回复时长的细微差异,攻击者可利用孪生语言预测器窃取用户私密指令和聊天内容[1] - 数据“投毒”攻击仅需250份恶意文档即可在130亿参数模型中植入可随时引爆的后门,导致模型输出错误或危险信息[3] - 攻击者使用“间接提示注入”技术,可通过官方API等合法通道,使大模型成为窃取受保护数据的“帮凶”,行为隐蔽难以察觉[4] - 通过向正版模型发送大量查询,攻击者可训练出功能近似的“山寨”模型,其潜在威胁目前尚不明确[5] - 智能体间存在“信任背叛”威胁,恶意智能体可利用通信协议信任机制,注入隐蔽指令以控制受害者智能体执行未授权操作[6] - 底层开源漏洞构成跨行业安全威胁,例如Ollama等开源工具的安全隐患可使未授权用户获得模型和数据的管理员权限[6] - 报告显示近40个大模型存在相关安全漏洞,影响多个知名模型服务框架及开源产品[6] 主动防御与AI对抗技术 - 基于反测绘的AI引擎可阻断攻击方探测并扰乱其关联分析,相关成果在金融业应用后显著减少了关键基础设施受到的佯攻和探测次数[7] - 前置安全思路成为趋势,通过在大模型神经元设置“蜜点”可捕获攻击前的“踩点”行为,AI技术能快速“克隆”业务邮箱以增强诱捕真实性[8] - 网络安全智能体可像专业团队一样协同处理复杂安全任务,例如“风云卫”平台内置20多个安全领域AI智能体,支持非专业人员定制化处理安全任务[8] - 采用“工厂化”方式整合大模型全生命周期安全能力,加入对抗训练以建立符合安全要求的“生产流水线”,实现以AI防护AI[8] - 主动防御策略旨在增加攻击者成本,通过暴露攻击者并损耗其基础设施来实现“敲山震虎”的效果[9] 法规建设与行业共治 - 第十四届全国人大常委会通过网络安全法修改决定,将完善人工智能伦理规范、加强风险监测评估和安全监管写入法律[2] - 国家标准《网络安全技术生成式人工智能服务安全基本要求》于11月1日实施,明确服务提供者需提高训练数据质量并做好数据安全管理,但该标准非强制且无惩罚条款[11] - 新修改的网络安全法将于明年1月1日实施,新增条款被视为对人工智能实施强制性安全防护的“前奏”,为细分领域法律提供依据[12] - 建议对可能影响个人权益和社会公共利益的重大算法应用建立备案和审查制度,推动行业协会、学术机构等专业力量参与算法伦理治理[12] - 第三方安全认证与评估体系被视为大模型安全治理的“校准器”,通过对硬件、软件、数据、算法和隐私的全面“体检”来确保国家标准有效落地[13]