Shadow AI

搜索文档
What is ‘BYOAI’ and why it’s a serious threat to your company
Yahoo Finance· 2025-09-11 00:30
The real shift is not technological, it’s sociological. Most users, the nonexperts, will simply adopt whatever OpenAI, Google, Microsoft, Perplexity, Anthropic, or others give them, using those models like cognitive appliances: plug and play, nothing more, and they will share all the data they generate with these companies, that will exploit them (aka “monetize them”) to oblivion.Months ago, I warned about “shadow AI” : employees moving faster than their companies, using AI without permission or training, w ...
IBM Report: 13% Of Organizations Reported Breaches Of AI Models Or Applications, 97% Of Which Reported Lacking Proper AI Access Controls
Prnewswire· 2025-07-30 18:00
AI安全与治理 - AI采用速度远超安全治理 仅有49%被入侵公司计划投资安全领域 [1] - 13%公司报告AI模型或应用遭入侵 8%不确定是否被入侵 其中97%缺乏AI访问控制 [6] - AI相关安全事件导致60%数据泄露和31%运营中断 63%被入侵公司无AI治理政策或政策不完善 [6][7] 影子AI风险 - 20%公司因影子AI遭入侵 仅37%有政策管理或检测影子AI [7] - 高影子AI使用公司平均多承担67万美元入侵成本 影子AI事件导致个人身份信息(65%)和知识产权(40%)泄露比例高于全球均值(53%和33%) [7] AI驱动的攻击 - 16%入侵事件涉及攻击者使用AI工具 主要用于钓鱼或深度伪造攻击 [7] - 广泛采用AI和自动化安全运营的公司平均节省190万美元入侵成本 并将入侵生命周期缩短80天 [3] 数据泄露成本 - 全球平均入侵成本降至440万美元(五年来首降) 美国达创纪录1022万美元 [1][7] - 医疗行业入侵成本最高(742万美元) 但较2024年减少235万美元 该行业识别控制入侵耗时279天(比全球均值241天长5周) [7] 入侵生命周期 - 全球平均入侵生命周期缩短至241天(同比减少17天) 内部发现入侵的公司比攻击者披露节省90万美元成本 [7] - 近半数公司因入侵计划涨价 三分之一涨价幅度超15% [9] 历史趋势 - 2005年45%入侵由设备丢失被盗引起 仅10%因电子系统被黑 [14] - 2021年勒索软件平均成本462万美元 2025年攻击者披露事件达508万美元 [14] - 2025年AI首次纳入研究即成为高价值目标 [14] 行业应对现状 - 勒索支付疲劳显现 2025年63%公司拒绝支付赎金(2024年为59%) [13] - 计划投资安全的被入侵公司比例从2024年63%降至2025年49% 其中不到半数聚焦AI安全解决方案 [13]
近半公司不了解员工在用AI:AI办公普及加速,企业安全监管仍然滞后
21世纪经济报道· 2025-05-26 11:40
AI在企业安全中的应用与挑战 - AI被视为提升生产力的关键引擎,快速渗透到各类办公场景中 [1] - 大多数国内企业在安全运营中已初步使用AI,90%以上的受访者将生成式AI用于威胁情报收集和威胁检测 [1] - 全球86%的企业在过去一年经历至少一次AI相关安全事件,中国大陆市场这一数字为92% [1] 企业网络安全就绪现状 - 中国大陆市场仅5%的企业网络安全就绪指数达到"成熟"水平 [3] - 48%的国内受访者表示能充分理解AI带来的安全威胁,不足一半的企业认为安全团队了解攻击者如何利用AI [4] - 企业安全系统难以覆盖所有AI使用路径,大多数安全团队无法追踪员工在生成式AI工具中的输入内容 [4] 员工使用AI的监管难题 - 约50%的国内员工使用公司批准的AI工具,20%的员工能不受限制地访问公网AI工具如ChatGPT [3] - 46%的企业对员工使用AI工具的情况毫不知情 [3] - 员工自行使用AI工具的行为被称为"影子AI",可能导致商业机密或用户数据泄露 [4] 生成式AI的普及与安全挑战 - 生成式AI迅猛普及,但员工认知不足,企业安全保障能力未跟上 [4] - AI系统分散部署在多个业务部门,数据链条复杂,统一管理难度大 [4] - 国内企业最关注AI合规性和业务连续性,尤其担心网络攻击和业务中断 [4] 企业AI安全防护建议 - 第一步"发现":明确公司内部网络中存在的AI应用,包括未经授权的工具 [5] - 第二步"检测":识别AI系统可能存在的漏洞和风险点 [5] - 第三步"防护":构建安全机制应对新型攻击手法如提示词攻击、幻觉内容生成等 [5]