生成式AI在职场应用的现状 - 生成式AI已从个人设备的新奇尝试转变为深度渗透职场生态的工具,显著提升生产效率的同时也带来巨大安全漏洞 [1] - 敏感公司数据正持续流入公共AI系统,包括跨国电子制造商员工将产品源代码等机密数据输入ChatGPT的案例 [1] - 大型语言模型的运行机制决定了它们会从交互中持续学习,企业不愿用核心数据喂养公共AI应用 [1] 企业应对AI风险的策略 - 直接封杀生成式AI应用的做法催生了更危险的"AI影子化"现象,员工通过私人设备、个人账户或截图绕过监控上传数据 [2] - 简单封锁访问权限导致IT部门失去对真实情况的掌控,无法有效管控数据安全与隐私风险 [4] - 有效管控策略需以可视化监控、治理规范和员工赋能为核心,第一步是全面掌握AI工具在组织内部的应用情况 [5] - 制定定制化政策时应避免一刀切禁令,推行基于场景感知的智能管控策略,如部署浏览器隔离技术或引导至企业认证的AI平台 [5] - 不同岗位需实施差异化管控,研发团队可能需要特定应用精准授权,财务等敏感部门需更严格访问限制 [5] 构建创新与安全的平衡 - 生成式AI彻底改变了工作模式和组织运作方式,企业需以负责任的态度拥抱技术而非拒绝 [7] - 成功企业将构建可视化监控体系、实施精准治理策略并持续开展员工培训,找到创新激励与数据保护的平衡点 [7] - 企业不应在安全与效率之间做单选题,而应打造二者共生共荣的生态,在数字化浪潮中抢占先机 [7] - 管控"影子AI"风险、构建安全高效的AI应用体系可将生成式AI从潜在负担转化为战略机遇 [7] - 真正获益的企业是那些洞悉风险、建立有效防护机制并赋能员工安全合规应用的组织 [7]
影子 AI:你的公司也可能沦为 AI 训练素材
36氪·2025-07-22 10:28