AI大模型重塑企业生产与商业模式 - 以大语言模型为代表的人工智能大模型正以前所未有的速度和深度重塑企业的生产和商业模式[1] AI浏览器带来的新型安全威胁 - 2025年被称为“AI浏览器元年”,OpenAI推出了ChatGPT Atlas,Perplexity开发了Comet等新型浏览器[2] - 2026年全球科技公司将继续改进浏览器这一传统入口[2] - 这些AI浏览器已能理解用户意图,自动填写表单、调用API、比价下单,甚至代订机票酒店、实时比价生成报告[2] - 具备“行动能力”的AI智能体一旦被诱导,可能瞬间泄露敏感信息或执行非法操作[2] - 研究发现Atlas浏览器存在严重安全漏洞,攻击者可将恶意指令伪装成无害URL实现系统破解[2] - 通过精心构造的“话术”可诱骗Atlas执行有害指令,绕过安全检查,可能导致用户遭受钓鱼攻击或数据窃取[2] - 与传统浏览器受同源策略限制不同,Atlas内置的AI智能体权限更高,一旦失守后果更为严重[2] AI浏览器的防御建议 - 防御手段应同时关注AI的身份和数据,为具有特定权限的AI智能体赋予唯一身份[3] - 应在源头对敏感数据进行分类和标记,隔离高风险网站的访问和浏览[3] - 建议设置高危操作审批流程,并建立“一键关停”应急机制[3] 提示词注入攻击的威胁 - 提示词注入是一种主要针对大语言模型的网络攻击,黑客通过恶意提示操纵生成式AI系统[4] - 开放式Web应用程序安全项目将提示词注入攻击列为AI大模型的“头号威胁”[4] - 真实案例显示,通过一句看似无害的提示可成功套出AI的核心系统提示词[4] - 若此类攻击发生在企业环境,由大语言模型驱动的虚拟助理可能被诱骗转发私人邮件、修改合同条款甚至启动资金转账[4] 提示词注入的防御策略 - 防御提示词注入风险不能仅靠静态过滤器,还需部署模型防火墙,引入可信数据源和来源验证机制[4] - 内容来源和真实性联盟标准通过加密签名与元数据绑定,确保每一条内容可溯源、防篡改[4] - 监控AI流量中的敏感数据和持续的红队行动至关重要[4] - 在应用层面必须净化输入,限制模型的访问权限,并在输出端增设独立审查层,在AI采取自动行动前完成人工确认[4] AI安全治理架构的演进 - 面对日益复杂的AI应用生态,传统的网络安全边界正在瓦解[5] - “影子AI”指那些未经批准的软件运营服务、浏览器插件、第三方API,它们悄然渗透进企业系统且难以追踪[5] - 安全访问服务边缘正加速升级,演变为“AI感知型接入架构”[5] - 未来的安全访问服务边缘不仅是网络通道的管理者,更是AI流量的“安检门”,能识别AI会话、评估风险意图、执行地域合规检查,并将请求导向合规模型[5] - 其核心功能包括在提示发送前自动清除个人身份信息、密钥和令牌,根据AI风险评分动态调整认证强度,结合设备状态与用户身份控制模型访问权限等[6] - 这一转变意味着AI安全治理正从“被动防御”迈向“主动出击”[6] AI安全态势管理的兴起 - 构建全局性“指挥中心”是AI安全态势管理的使命[6] - 2026年企业将逐步告别基础的大语言模型网关,转向部署完整的AI安全态势管理系统[6] - 这类平台能够实现对模型与数据的集中监控,政策执行的一致性治理,敏感信息的动态管控,定制模型与SaaS工具的统一管理[6] - AI安全态势管理能提供可追溯的安全证据链,记录模型评估过程、修复流程与合规进展,完全契合美国国家标准与技术研究院、国际标准化组织等国际风险管理框架[6] - 通过跟踪模型使用情况、设定基于身份的访问规则,AI安全态势管理能在跨系统、跨地点的复杂环境中建立起一致且可审计的安全防线[6]
AI治理须从“被动防御”转向“主动出击”
科技日报·2026-01-28 09:19