商业秘密法与AI技术保护 - 美国专利商标局和美国版权局明确限制AI辅助创新的专利和版权保护,要求人类对AI输出做出"显著贡献"才能获得专利保护,AI生成的表达性元素不受版权保护 [1] - 商业秘密法成为保护AI相关创新的重要工具,因其不要求发明人或作者身份,也无需政府批准或注册,能够覆盖专利和版权无法保护的敏感信息如训练数据和模型权重 [1] - 商业秘密法的高度包容性和广泛适用范围使其被称为与AI技术保护的"天作之合",可规避传统知识产权保护的时间限制和程序繁琐问题 [1] AI技术保护面临的挑战 - 商业秘密法的"黑箱化"特性与社会对AI技术透明性需求之间的冲突日益凸显,可能使AI技术从"喂养"阶段演变为"吞噬"阶段,带来深远的社会和伦理影响 [2] - 商业秘密法在AI领域的全面保护导致过度保护和滥用,引发法律、伦理、经济和社会危机,构成系统性挑战 [5] - AI技术的"黑箱化"与商业秘密法的保密性叠加加剧透明性危机,破坏公众信任并掩盖技术滥用风险 [7] 商业秘密法对行业的影响 - 商业秘密法强化企业私权保障,通过独占信息获取竞争优势,但导致公众知情权、监督权和参与权空间被压缩,中小企业因技术壁垒被排除在AI研发之外 [5] - 商业秘密法可能强化少数AI巨头的技术垄断地位,提高市场壁垒,导致技术红利集中化,损害市场竞争与创新动力 [7] - 在医疗、司法和环境等公共利益领域,商业秘密法的私权保护与社会需求冲突,可能导致误诊、司法不公或阻碍全球气候变化应对 [6] 商业秘密法的边界重塑与治理 - 必须构建四重协同监管机制:限定商业秘密保护范围、实施强制性透明披露要求、确立公共利益优先原则、推动技术与法律深度融合 [13] - 在涉及公共利益的高风险AI系统中,通过算法透明性披露、独立第三方审查和分级透明性机制缓解商业秘密法与透明性需求的矛盾 [9] - 引入强制许可制度,在公共健康危机等紧急情况下优先保障公共利益,赋予政府强制使用受保护技术的权力并建立补偿机制 [10] 行业实践与案例 - 使用保密数据喂养GenAI被多国认定为违法泄密,欧盟《通用数据保护条例》和《商业秘密保护法》、中国《个人信息保护法》和《反不正当竞争法》均严令禁止此类行为 [3] - 三星电子员工使用ChatGPT调试半导体设备源代码导致核心代码及良品率数据泄露,20天内连发3起事故,迫使三星全面禁用公共AI工具 [4] - ChatGPT曾泄露私人聊天密码及未公开研究项目细节,意大利监管机构一度封禁ChatGPT禁止其处理意大利用户数据 [4]
保密信息喂养AI,是保护还是反噬?
第一财经·2025-07-17 10:18