文章核心观点 - 文章通过多个行业案例,揭示了在职场中过度依赖或盲目信任人工智能可能导致负面后果,包括工作失误、团队协作破裂乃至被解雇或裁员,核心论点为“尽信AI,不如无AI”,强调人类保持专业判断、责任心和“靠谱”品质在AI时代的重要性 [11][12] 体育行业案例 - 俄甲索契俱乐部前教练罗伯特·莫雷诺因让ChatGPT制定球队训练计划(如要求球员凌晨5点起床、28小时不睡觉)和转会决策(AI推荐的前锋10场0球)而被解雇,其带队7场比赛仅得1分 [1][3] - 该案例显示,在体育管理领域,完全交由AI决策并机械执行,忽略了现实情况和专业经验,可能导致糟糕的竞技成绩和团队管理失败 [1][3] 法律行业案例 - 法律行业是大模型(如ChatGPT)的主流应用场景之一,尤其在审阅合同和诉状方面能降低专业门槛 [5] - 纽约一起诉讼案中,一名有30年经验的律师因使用ChatGPT生成诉状而被处罚,其律所承担连带责任,原因是AI伪造了6个司法判例及相关引证 [5] - 类似AI生成法律文书出现“幻觉”(即虚构内容)的案例在欧美及中国增多,北京律师协会已要求法律文书需经三级律师交叉审查并标注“AI辅助生成,已人工审核” [6] 科技行业案例 - 一名硅谷资深程序员因完全依赖GitHub Copilot生成代码并拒绝修复AI代码中的bug,同时PUA下属称AI将取代他们,最终被公司以“影响项目进度”和“造成心理伤害”为由解雇 [7] - 另一名硅谷程序员偷偷用AI完成工作并在上班时间休闲,被公司发现后遭解雇 [8] - 2025年硅谷大裁员被视为首次由AI驱动的大规模岗位缩减,其中产品经理(PM)、技术项目经理(TPM)和软件开发经理(SDM)成为裁员重灾区,例如亚马逊计划裁员3万人中这些岗位占比最高 [9] - 一家软件公司的产品经理因积极推动公司AI转型,反而导致整个产品部门被裁,老板认为AI时代产品将由AI设计而非人类 [10] 行业影响与反思 - AI在提升效率的同时,其“幻觉”问题(如生成虚假信息)和决策失误风险在专业领域可能造成严重后果,而AI本身无法为其错误承担责任 [11][12] - 盲目将工作全权交给AI,可能使人忽视错误、破坏团队协作与尊重,或导致决策者被AI概念误导而做出激进的业务调整(如裁撤整个部门) [11] - 在AI时代,人类的竞争力可能在于保持“靠谱”的品质——即专业审慎、承担责任和有效协作,而非完全依赖技术 [12]
第一批笃信AI的人,也被解雇了
36氪·2026-01-30 17:51