Employees are using AI in harmful ways. Companies may be in the dark
Yahoo Finance·2026-02-26 18:00

文章核心观点 - 人工智能在职场中的不当使用(或称“影子AI”)已成为一个普遍且严重的系统性风险,其核心问题在于AI的采用速度远超组织治理能力,导致数据安全泄露、技能侵蚀、决策质量下降等重大隐患,而非简单的员工作弊行为 [1][4][5][7] 影子AI的普遍性与表现形式 - 墨尔本大学与毕马威的研究显示,47%的职场专业人士曾不当使用AI,63%的人曾目睹同事不当使用AI [4] - 员工不当使用AI的具体表现包括:57%因未核查AI输出而在工作中犯错,53%完全隐瞒AI使用并将AI生成内容伪造成自己的成果 [1] - 46%的员工曾将公司敏感信息及知识产权上传至公共AI平台,64%承认因依赖AI而减少工作投入 [2] - 44%的美国员工在未经适当授权的情况下使用AI工具 [2] 对组织造成的具体风险与影响 - AI的滥用向组织引入了更多技术债务和安全漏洞,尽管其加快了编码速度 [1] - 员工使用AI生成分析报告却无法为其辩护,导致公司基于无人真正理解的工作做出决策,这使公司悄然丧失内部智慧,同时误以为团队在独立思考 [2] - 影子AI使用不仅加剧风险,还严重削弱组织检测、管理和缓解风险的能力 [3] - 主要风险暴露领域包括:数据泄露、合规违规以及员工实际所需技能的侵蚀 [7] 企业管理层面临的挑战与现状 - AI的采用规模已远超治理水平,这是一个系统性的组织准备不足问题 [5] - 盖洛普的《全球职场状况报告》指出,79%的全球员工处于“只做最低要求”到“主动躺平”之间,当缺乏有效指导时,他们更可能利用AI来省力或偷工减料,从而制造真正的组织风险 [5] - 高管们认为目前所见只是影子AI使用的冰山一角 [2] 建议的治理与应对策略 - 公司高管必须提出方案、制定政策并明确处罚措施,以确保AI的合乎道德的使用 [8] - 公司应提供经批准的内部AI工具,并设定一条明确规则:绝不将机密或受监管信息输入公共AI系统 [11] - 必须监控敏感数据的流向,特别是复制粘贴到AI工具的行为,这是目前多数公司完全忽视的主要盲点 [12] - 评估员工的方式必须改变,不能仅奖励光鲜的输出,而应要求员工解释其推理过程并展示理解力 [12] - 内部培训应侧重于实际案例,而非无人阅读的模糊政策,让员工清楚知道什么安全、什么不安全 [13] - 建立清晰而非限制性的政策可以创造信任和问责制 [13] 法律与合规视角 - 当AI滥用存在意图并造成损害时,即成为法律问题,包括泄露机密数据、窃取知识产权、操纵财务信息或利用AI实施欺诈 [15] - 从雇佣角度看,一致性是关键,若因AI滥用解雇一名员工而未解雇另一名,可能引发歧视和报复的诉讼风险 [17] - 员工仍需确保上传至AI平台的信息准确且不违反任何法律,并应意识到上传机密和专有信息可能导致信息在平台上永久暴露 [17] - 更完善的政策和培训流程能降低诉讼风险 [17] 历史经验与未来展望 - AI的滥用模式并非独有,互联网和搜索引擎初入职场时也出现过类似情况,每当强大新工具出现,误用不可避免 [9] - 随着AI普及,管理层可能会看到更多的实验和灰色地带行为,但如同所有技术一样,治理和护栏也会随之发展 [9] - 更大的担忧并非员工使用AI,而是公司能否在问题发生之前就妥善应对 [18]

Employees are using AI in harmful ways. Companies may be in the dark - Reportify