AI Security and Governance
搜索文档
Enterprises Rush into GenAI Without Security Foundations, New Ponemon Study Finds
Prnewswire· 2026-03-23 21:00
生成式人工智能的采用与安全现状 - 超过一半的企业(52%)已全面或部分部署了生成式人工智能,但安全与治理措施未能跟上 [1] - 行业面临的主要挑战是组织快速采用生成式人工智能,却缺乏管理其风险所需的治理和安全基础 [2] - 仅有五分之一(20%)的企业报告达到了人工智能成熟度,即网络安全活动中的AI已全面部署且安全风险得到评估 [3] 人工智能治理与安全实践的滞后 - 不到一半(43%)的受访者采用了基于风险的AI治理方法来应对偏见、安全威胁或伦理问题等AI相关风险 [4] - 人工智能部署速度与有效治理及保障其安全所需的实践之间存在显著差距 [4] - 随着AI系统变得更加自主并嵌入关键运营,弥合这一成熟度差距对于确保信任、合规和长期商业价值至关重要 [3] 人工智能在安全运营中的效能与挑战 - 仅51%的受访者认为AI能有效减少检测异常或新兴威胁所需的时间 [7] - 不到一半(48%)的受访者认为AI在威胁检测、深度洞察猎取以及减少人工工作量方面是有效的 [7] - 近三分之二(62%)的受访者表示,要最小化模型和偏见风险(包括不公平或歧视性输出)非常或极其困难 [7] 人工智能的可靠性、信任与自主性障碍 - 58%的受访者表示,提示或输入风险(例如误导性、不准确或有害的回应)非常或极其难以最小化 [6] - 超过一半(56%)的受访者在管理用户风险(包括非故意的错误信息传播)方面遇到挑战 [6] - 45%的受访者将AI决策规则中的错误列为影响效能的主要障碍,40%的受访者报告了AI摄取的数据输入错误 [7] 人工智能的自主决策能力与人力监督需求 - 不到一半的组织(47%)表示其AI模型能够学习稳健的规范并自主做出安全决策 [13] - 超过一半的受访者(51%)表示,由于攻击者能够快速适应,在AI治理中需要人力监督 [13] - 完全自主的人工智能仍远未实现,治理和成熟度方面的差距限制了旨在增强安全的工具的有效性和AI自主性 [5]