Workflow
技术透明性
icon
搜索文档
保密信息喂养AI,是保护还是反噬?
第一财经· 2025-07-16 18:50
商业秘密法在AI领域的应用 - 商业秘密法成为企业保护AI相关创新的重要工具,因其不要求发明人或作者身份,也无需政府批准或注册 [1] - 商业秘密法能够覆盖专利和版权无法涵盖的敏感信息,例如用于训练AI系统的数据或模型权重 [1] - AI开发者和用户借助商业秘密法保护核心信息,规避传统知识产权保护的时间限制和程序繁琐 [1] AI技术与商业秘密法的冲突 - AI对数据、算法和算力的需求与商业秘密法的"黑箱化"特性产生冲突,可能加剧AI技术治理难度 [2] - 商业秘密法的全面保护导致过度保护和滥用,引发法律、伦理、经济和社会危机 [5] - 商业秘密法的私权保护扩张压缩了公众对技术的知情权、监督权和参与权空间 [6] 使用保密信息训练GenAI的风险 - 用保密数据喂养GenAI被多国明确认定为违法泄密,存在不可逆的泄露风险 [3] - 三星电子员工使用ChatGPT调试半导体设备源代码,导致核心代码及良品率数据泄露 [3] - ChatGPT曾泄露私人聊天密码及未公开研究项目细节 [3] GenAI技术层面的系统性缺陷 - 数据脱敏无法消除身份识别风险且显著降低数据的商业价值 [4] - 核心商业秘密禁止接触公共AI,非敏感数据需经身份隐藏与业务背景剥离双重处理 [4] - 最可靠方案是采用本地化部署实现数据物理隔离 [4] 商业秘密法对经济和社会的影响 - 商业秘密法强化少数AI巨头的技术垄断地位,导致市场壁垒提高和技术红利集中化 [7] - AI技术红利集中于少数科技公司和资本集团,加剧社会资源分配不平等 [7] - 商业秘密法可能阻碍AI技术的开放与协作,打击健康的创新生态 [5] 商业秘密法与伦理治理协同 - 引入透明性要求、限定保护范围、实施强制许可制度以寻求动态平衡 [8] - 在高风险AI系统中,透明性是保障社会信任和技术伦理的核心 [8] - 强制许可制度在特定紧急情况下优先保障公共利益 [9] 商业秘密法的边界重塑 - 合理限定商业秘密保护范围,仅覆盖具有实质商业价值的核心算法与数据集 [11] - 实施强制性透明披露要求,对高风险领域建立分级透明制度 [11] - 推动技术与法律深度融合,开发可解释性工具并将AI伦理标准纳入认证体系 [11]