Workflow
Shadow AI
icon
搜索文档
SailPoint launches Shadow AI Remediation to empower enterprises with real-time visibility and control over AI usage
Globenewswire· 2026-03-17 21:00
公司产品发布 - 公司SailPoint于2026年3月17日宣布推出新产品“SailPoint Shadow AI Remediation” [1] - 该产品是其实时AI治理与安全框架的下一个主要组成部分 旨在帮助组织发现、监控和保护未经授权的AI工具(即“影子AI”)的使用 [1] - 该解决方案通过简单的浏览器扩展进行部署 无需网络或基础设施更新 对最终用户体验影响最小 [5] 产品功能与特点 - 提供对员工使用未受监控AI工具方式的实时可见性 包括监控文档上传和交互频率 [2] - 使安全团队能够通过阻止未经授权的上传、将用户重定向至经批准的AI工具或要求其提供业务理由 来主动防止滥用 [5] - 通过将AI工具使用活动集成到公司的身份安全云中 丰富身份图谱 为访问和风险决策添加上下文 [3] 行业背景与问题阐述 - 员工越来越多地使用ChatGPT、Claude、Gemini等AI平台提高生产力 但常绕过已批准的IT渠道 形成“影子AI” [2] - “影子AI”为企业带来了关键挑战 造成了显著的安全盲点 并使安全领导者对员工如何使用这些平台失去控制 [2] - 根据公司近期发布的报告 80%的组织报告其AI代理执行过非预期的操作 例如访问或共享不当数据 [2] 公司战略与市场定位 - 公司认为控制AI使用的最佳方式是通过以平台为中心的方法 实时统一身份、数据和安全智能 [3] - 公司的实时AI治理与安全框架统一了代理身份安全、机器身份安全、数据访问安全以及新推出的影子AI治理 提供全面的AI安全方案 [3] - 公司将其平台方法定位为通过关联人类与非人类身份、数据及安全智能 独特地帮助企业应对AI安全的复杂性 [3]
Microsoft Draws Internet Ire Over Wave of Email Blocking
PYMNTS.com· 2026-03-05 02:08
微软邮件服务问题 - 微软的Outlook服务近期出现大规模拒收邮件问题 被描述为“故障”或“过于严格的安全规则” 导致“混乱”[2] - 问题自1月下旬开始出现 表现为发往Outlook免费/个人账户的邮件突然激增被拒 受影响的是特定IP地址[3] - 被拒邮件收到“550”错误代码 提示收件人联系其网络服务提供商 因为其部分网络在微软的拦截列表中[3] - 尽管拦截列表旨在防止垃圾邮件 但受影响公司的IP地址在微软的智能网络数据服务中显示无问题 且该公司是微软垃圾邮件报告计划成员 但从未收到过垃圾邮件报告[3][4] - 用户在整个二月至本周持续在微软支持论坛报告类似问题 表明该问题影响广泛且持续[8] - 此问题的一个影响是阻碍了企业对供应商错误等事务的及时响应 从而损害了企业声誉[8] - 媒体已联系微软寻求评论 但除收到初步联系确认外 尚未获得回复[8] 网络安全行业趋势 - 地缘政治对抗加剧时期 网络攻击的可能性日益增加 攻击者可能包括非国家行为体或意识形态驱动的团体[9] - 到2026年 在传统IT治理框架之外运行的技术兴起将加剧安全问题 这一脆弱性层由所谓的“影子AI”和未经授权的应用程序构成[10] - 企业快速采用人工智能工具时 往往缺乏正式的风险控制或可见性 无意中扩大了其受攻击面[11] - 这一不受监控的层既可能引入新的漏洞 也可能模糊对企业内部风险传播的追踪[11] - 这对当今的供应链领导者构成了一个具有挑战性的安全悖论 即越是采用旨在增强运营可见性和韧性的策略与解决方案 可能产生的、需要防范犯罪分子的潜在入口点就越多[12]
Employees are using AI in harmful ways. Companies may be in the dark
Yahoo Finance· 2026-02-26 18:00
文章核心观点 - 人工智能在职场中的不当使用(或称“影子AI”)已成为一个普遍且严重的系统性风险,其核心问题在于AI的采用速度远超组织治理能力,导致数据安全泄露、技能侵蚀、决策质量下降等重大隐患,而非简单的员工作弊行为 [1][4][5][7] 影子AI的普遍性与表现形式 - 墨尔本大学与毕马威的研究显示,47%的职场专业人士曾不当使用AI,63%的人曾目睹同事不当使用AI [4] - 员工不当使用AI的具体表现包括:57%因未核查AI输出而在工作中犯错,53%完全隐瞒AI使用并将AI生成内容伪造成自己的成果 [1] - 46%的员工曾将公司敏感信息及知识产权上传至公共AI平台,64%承认因依赖AI而减少工作投入 [2] - 44%的美国员工在未经适当授权的情况下使用AI工具 [2] 对组织造成的具体风险与影响 - AI的滥用向组织引入了更多技术债务和安全漏洞,尽管其加快了编码速度 [1] - 员工使用AI生成分析报告却无法为其辩护,导致公司基于无人真正理解的工作做出决策,这使公司悄然丧失内部智慧,同时误以为团队在独立思考 [2] - 影子AI使用不仅加剧风险,还严重削弱组织检测、管理和缓解风险的能力 [3] - 主要风险暴露领域包括:数据泄露、合规违规以及员工实际所需技能的侵蚀 [7] 企业管理层面临的挑战与现状 - AI的采用规模已远超治理水平,这是一个系统性的组织准备不足问题 [5] - 盖洛普的《全球职场状况报告》指出,79%的全球员工处于“只做最低要求”到“主动躺平”之间,当缺乏有效指导时,他们更可能利用AI来省力或偷工减料,从而制造真正的组织风险 [5] - 高管们认为目前所见只是影子AI使用的冰山一角 [2] 建议的治理与应对策略 - 公司高管必须提出方案、制定政策并明确处罚措施,以确保AI的合乎道德的使用 [8] - 公司应提供经批准的内部AI工具,并设定一条明确规则:绝不将机密或受监管信息输入公共AI系统 [11] - 必须监控敏感数据的流向,特别是复制粘贴到AI工具的行为,这是目前多数公司完全忽视的主要盲点 [12] - 评估员工的方式必须改变,不能仅奖励光鲜的输出,而应要求员工解释其推理过程并展示理解力 [12] - 内部培训应侧重于实际案例,而非无人阅读的模糊政策,让员工清楚知道什么安全、什么不安全 [13] - 建立清晰而非限制性的政策可以创造信任和问责制 [13] 法律与合规视角 - 当AI滥用存在意图并造成损害时,即成为法律问题,包括泄露机密数据、窃取知识产权、操纵财务信息或利用AI实施欺诈 [15] - 从雇佣角度看,一致性是关键,若因AI滥用解雇一名员工而未解雇另一名,可能引发歧视和报复的诉讼风险 [17] - 员工仍需确保上传至AI平台的信息准确且不违反任何法律,并应意识到上传机密和专有信息可能导致信息在平台上永久暴露 [17] - 更完善的政策和培训流程能降低诉讼风险 [17] 历史经验与未来展望 - AI的滥用模式并非独有,互联网和搜索引擎初入职场时也出现过类似情况,每当强大新工具出现,误用不可避免 [9] - 随着AI普及,管理层可能会看到更多的实验和灰色地带行为,但如同所有技术一样,治理和护栏也会随之发展 [9] - 更大的担忧并非员工使用AI,而是公司能否在问题发生之前就妥善应对 [18]
Mimecast Expands APAC Investment to Accelerate Human Risk Management Growth
Globenewswire· 2025-12-10 19:44
公司战略扩张 - 公司在亚太地区进行重大新投资 包括在新加坡设立新的东盟区域总部以及即将建设的数据中心 以提供高级威胁防护、数据主权和人工智能创新 [1] - 公司任命Nicky Choo为亚太区副总裁兼总经理 领导该地区的运营、市场进入和客户成功 [1][4] - 公司首席执行官表示 加强本地布局是公司全球增长战略的关键步骤 有助于构建针对特定区域的创新并提供世界级平台以降低人为风险 [3] 亚太市场机遇 - 亚太地区占全球网络安全市场的25% 并且是全球增长最快的市场 [2] - 该地区对人工智能的需求空前高涨 主要驱动力包括快速的数字化转型、云服务的兴起以及日益先进的网络威胁 [2] - 亚太地区的组织正处于人工智能应用和数字化转型的前沿 同时面临数据丢失和网络安全威胁的快速演变 [3] 管理层任命 - Nicky Choo将常驻新加坡 领导区域战略、运营和增长 [4] - Choo拥有丰富的网络安全和企业技术经验 曾在Devo领导亚太业务 并在Pegasystems和IBM担任高级职务 [4] - Choo表示 公司的平台在利用人工智能对抗威胁方面处于有利地位 将与分销合作伙伴共同为该地区的信任和安全设定新标准 [5] 产品与技术创新 - 公司的2025年全球威胁情报报告强调 网络威胁格局发生显著变化 其中“影子人工智能”成为一个重大风险 86%的安全领导者担心敏感数据通过生成式人工智能工具泄露 [6] - 公司开发了先进的人工智能驱动解决方案 以帮助组织最小化人为风险并增强威胁检测 例如“内部人员风险管理”解决方案 旨在通过保护关键数据免遭暴露、丢失、泄露和盗窃来防范“影子人工智能” [7] - 公司在印度设有人工智能实验室 拥有150名工程师团队 致力于构建创新的人工智能驱动平台 以保护全球客户免受高级人工智能攻击 [9] 数据中心与数据主权 - 公司计划在新加坡推出一个完全托管的数据中心 该数据中心将基于亚马逊AWS的安全云基础设施构建 [8] - 新的数据中心将确保本地客户能够满足严格的数据驻留要求 包括新加坡的《个人数据保护法》 数据主权是信任和安全的基石 [8] 公司业务概况 - 公司是一家全球网络安全领导者 致力于重新定义组织如何保障人为风险 其人工智能驱动、支持API的互联人为风险平台旨在保护组织免受各种网络威胁 [11] - 全球有超过42,000家企业信任该公司 以帮助其领先于不断变化的威胁环境 [12]
C-suite leaders break their own AI rules
Yahoo Finance· 2025-11-13 18:46
AI技术在工作场所的无序扩张 - AI技术在工作场所的快速采用导致工具和平台激增,但缺乏统一战略,形成AI无序扩张现象 [3] - 影子AI是推动该趋势的主要力量之一,约20%遭受数据泄露的公司将其溯源至影子AI,全球平均成本超过400万美元 [3] 员工及高管对未经授权AI工具的使用 - 高管和员工都存在使用未经授权AI工具的行为,部分人将其视为绕过繁琐审批流程以追求速度的途径 [4] - 超过三分之二的高管承认在过去三个月内使用过未经批准的AI工具,其中超过三分之一在上个季度至少使用了五次 [6] - 超过三分之二的高管承认即使与内部政策冲突,也会使用AI来简化工作 [4] - 三分之一的员工承认使用AI处理公司机密信息 [6] AI工具采用过程中的挑战与问题 - 四分之三的员工表示会在任务中途放弃使用AI工具,通常是由于对准确性的担忧 [5] - 超过一半的高管认为在实施AI时,安全性和合规性是具有挑战性或极具挑战性的 [6] - 无用的工具不会被使用,在AI成本失控的背景下造成了资源浪费 [5]
What is ‘BYOAI’ and why it’s a serious threat to your company
Yahoo Finance· 2025-09-11 00:30
行业核心趋势:BYOA(自带人工智能) - 行业正经历从技术驱动到社会学驱动的根本性转变,大多数非专业用户将直接采用科技巨头提供的AI模型,如同使用“认知家电”,并在此过程中生成被企业用于货币化的数据 [1] - 一种被称为BYOA或BYOAI(自带算法/人工智能)的趋势已无处不在,员工将自行引入的AI智能体嵌入日常工作流程,这与早期的BYOD(自带设备)有本质区别,后者关乎设备,而前者关乎一个能决策、推理和学习的认知层 [2] - 知识工作已由智能体作为中介,否认这一现实是徒劳的,关键在于企业如何将这一事实转化为战略优势 [9][10] 新兴人才与公司管理挑战 - 一类真正精通AI的新兴专业人士正在崛起,他们构建、微调并运行属于自己的个人AI智能体,将其视为个人资本的一部分,剥夺其使用个人AI的权利将导致其生产力和专业身份崩溃 [3] - 企业为吸引此类顶尖人才,必须重新思考激励机制,无法仅凭政策备忘录来限制其优势,管理文化需要成熟,固守工具统一性的管理者将驱散那些能最大化AI效能的员工 [4][7] - 人才竞争将因此加剧,重要的衡量标准将不再是员工对公司软件列表的服从度,而是可验证、可追溯的绩效表现 [7] 企业治理与合规演进 - 企业的安全与合规策略需从幻想“根除影子AI”转向现实地管理它,使其明确、可盘点、可审计,尽早意识到这点的公司将能捕获价值,否则将持续流失人才 [6] - 合同将随之演进,出现“算法条款”,明确规定个人AI的使用,包括模型与数据集的声明、隔离要求、对关键决策输出的审计权,以及雇佣关系结束时的可移植性和删除义务 [5] - 新的员工福利也将出现,例如计算津贴、推理积分、以及对本地硬件或边缘节点的补贴 [5] 未来组织与技术融合方向 - 企业的目标不应是标准化智能体,而是通过模型认证、密封权重、明确数据边界、透明遥测和加密限制等技术,在公司边界内创建可信计算飞地,实现智能体的安全共存 [4] - 领导者需要学会评估人机协作的成果,决定何时将任务委托给智能体,并设计以混合团队为默认模式的工作流程 [8] - 组织需要重新划定信任、责任和知识产权的界限,以应对人力资本自带算法的经济现实 [9]
IBM Report: 13% Of Organizations Reported Breaches Of AI Models Or Applications, 97% Of Which Reported Lacking Proper AI Access Controls
Prnewswire· 2025-07-30 18:00
AI安全与治理 - AI采用速度远超安全治理 仅有49%被入侵公司计划投资安全领域 [1] - 13%公司报告AI模型或应用遭入侵 8%不确定是否被入侵 其中97%缺乏AI访问控制 [6] - AI相关安全事件导致60%数据泄露和31%运营中断 63%被入侵公司无AI治理政策或政策不完善 [6][7] 影子AI风险 - 20%公司因影子AI遭入侵 仅37%有政策管理或检测影子AI [7] - 高影子AI使用公司平均多承担67万美元入侵成本 影子AI事件导致个人身份信息(65%)和知识产权(40%)泄露比例高于全球均值(53%和33%) [7] AI驱动的攻击 - 16%入侵事件涉及攻击者使用AI工具 主要用于钓鱼或深度伪造攻击 [7] - 广泛采用AI和自动化安全运营的公司平均节省190万美元入侵成本 并将入侵生命周期缩短80天 [3] 数据泄露成本 - 全球平均入侵成本降至440万美元(五年来首降) 美国达创纪录1022万美元 [1][7] - 医疗行业入侵成本最高(742万美元) 但较2024年减少235万美元 该行业识别控制入侵耗时279天(比全球均值241天长5周) [7] 入侵生命周期 - 全球平均入侵生命周期缩短至241天(同比减少17天) 内部发现入侵的公司比攻击者披露节省90万美元成本 [7] - 近半数公司因入侵计划涨价 三分之一涨价幅度超15% [9] 历史趋势 - 2005年45%入侵由设备丢失被盗引起 仅10%因电子系统被黑 [14] - 2021年勒索软件平均成本462万美元 2025年攻击者披露事件达508万美元 [14] - 2025年AI首次纳入研究即成为高价值目标 [14] 行业应对现状 - 勒索支付疲劳显现 2025年63%公司拒绝支付赎金(2024年为59%) [13] - 计划投资安全的被入侵公司比例从2024年63%降至2025年49% 其中不到半数聚焦AI安全解决方案 [13]
近半公司不了解员工在用AI:AI办公普及加速,企业安全监管仍然滞后
21世纪经济报道· 2025-05-26 11:40
AI在企业安全中的应用与挑战 - AI被视为提升生产力的关键引擎,快速渗透到各类办公场景中 [1] - 大多数国内企业在安全运营中已初步使用AI,90%以上的受访者将生成式AI用于威胁情报收集和威胁检测 [1] - 全球86%的企业在过去一年经历至少一次AI相关安全事件,中国大陆市场这一数字为92% [1] 企业网络安全就绪现状 - 中国大陆市场仅5%的企业网络安全就绪指数达到"成熟"水平 [3] - 48%的国内受访者表示能充分理解AI带来的安全威胁,不足一半的企业认为安全团队了解攻击者如何利用AI [4] - 企业安全系统难以覆盖所有AI使用路径,大多数安全团队无法追踪员工在生成式AI工具中的输入内容 [4] 员工使用AI的监管难题 - 约50%的国内员工使用公司批准的AI工具,20%的员工能不受限制地访问公网AI工具如ChatGPT [3] - 46%的企业对员工使用AI工具的情况毫不知情 [3] - 员工自行使用AI工具的行为被称为"影子AI",可能导致商业机密或用户数据泄露 [4] 生成式AI的普及与安全挑战 - 生成式AI迅猛普及,但员工认知不足,企业安全保障能力未跟上 [4] - AI系统分散部署在多个业务部门,数据链条复杂,统一管理难度大 [4] - 国内企业最关注AI合规性和业务连续性,尤其担心网络攻击和业务中断 [4] 企业AI安全防护建议 - 第一步"发现":明确公司内部网络中存在的AI应用,包括未经授权的工具 [5] - 第二步"检测":识别AI系统可能存在的漏洞和风险点 [5] - 第三步"防护":构建安全机制应对新型攻击手法如提示词攻击、幻觉内容生成等 [5]