“反AI联盟”,要和时代唱反调?
苹果苹果(US:AAPL) 36氪·2026-01-26 13:09

文章核心观点 - 在AI技术被广泛视为颠覆性趋势的背景下,一批顶尖科学家和产业巨头却采取了谨慎甚至禁止的态度,他们的行为并非源于抗拒技术,而是出于对数据安全、版权合规、输出可靠性等深层风险的远见和防范,这些“逆行者”的实践为AI产业的健康、可持续和负责任发展提供了关键的“试错样本” [1][3][9][17] 逆行者图鉴:AI反叛者是谁 - 反对AI的群体并非单一,其动机和背景各不相同,包括内容创意公司和科技巨头等 [3] - 桌面战棋游戏《战锤40K》的母公司Games Workshop全面禁止员工在内容创作与设计流程中使用AI生成任何正式内容,并严格监控AI工具,此禁令由CEO在财报会上亲自宣布,严苛程度堪称业内之最 [5] - Games Workshop在同行因AI兴起而裁减美术团队时,反其道而行之,持续加大对Warhammer Studio的投入,招聘了更多人类概念设计师、插画师和雕塑师 [5] - 苹果、三星、亚马逊等科技巨头本身是AI技术的研发者和应用者,但却在公司内部禁止或严格限制员工使用如ChatGPT等第三方生成式AI工具 [7] 逆行背后的核心动机:保护核心资产与数据安全 - Games Workshop激进反AI的根源在于保护其IP这一核心资产,公司认为《战锤》IP的成功在于其独特的世界观和艺术风格,这是由艺术家的情感、才华与想象力结晶而成,保护IP的纯粹性就是保护公司的生命线 [5][7] - 科技巨头限制使用外部AI工具,主要目的是防止公司最核心的机密数据暴露在不可控的外部环境中,这些数据包括未发布的硬件设计图、下一代操作系统的源代码、核心算法等价值连城的商业机密 [7] - 当员工将包含未发布产品信息的会议纪要、机密代码或竞争对手分析报告粘贴到ChatGPT时,数据可能脱离公司安全掌控,并被用于训练外部AI模型,禁令本质上是构建数据安全的防火墙 [8] - 据韩媒报道,三星半导体部门的工程师在启用ChatGPT不到一个月内,就发生了3起数据泄露事故,员工无意中将半导体设备测量数据、产品良率等核心机密变成了OpenAI训练数据库的一部分 [10][12] 逆行者顾虑的三大风险领域 - 数据安全风险:在第三方AI服务的数据隐私政策、使用边界及安全保障措施未达到企业级信任标准前,使用这些服务被视为一场豪赌 [12] - 版权与合规风险:生成式AI模型学习了海量受版权保护的作品,导致其生成内容的版权归属界定模糊,存在侵权风险,这种不确定性对于以视觉风格和世界观设定为核心资产的内容公司是不可接受的,可能使整个IP的合规风险失控,原创价值骤降 [12] - 输出可靠性风险:生成式AI存在的“幻觉”问题会编造错误事实,在金融、科技、医疗、高端制造等容错率极低的行业,小错误可能引发连锁风险 [14] - 复旦大学附属华山医院的科主任张文宏指出,年轻医生若过度依赖AI诊断,可能失去独立判断和识别AI错误的能力,一旦AI幻觉出现,可能影响患者生命 [15] - 摩根士丹利虽与OpenAI合作推出生成式AI工具,但对AI使用场景进行严格限制,因为若AI分析模型在投资时产生幻觉给出错误建议,可能导致数亿甚至数十亿美元的损失 [17] 逆行行为的行业影响与深层启示 - AI反对派的行为为整个行业提供了宝贵的“试错样本”,当大多数企业焦虑于“要不要用AI”时,先行者已开始思考“如何在合规、安全的前提下用好AI” [17] - 这些禁令与限制倒逼AI产业在发展中开始正视数据隐私、版权归属、算法伦理等核心问题 [17] - 未来AI能否深度赋能千行百业,关键或许不在于模型参数和能力,而在于能否为其建立一套行之有效的治理体系,让AI真正安全高效地服务用户和社会 [17]

“反AI联盟”,要和时代唱反调? - Reportify