事关人工智能纠纷,最高法正起草相关意见
清华金融评论·2026-04-23 19:17

文章核心观点 - 中国监管与司法部门正通过顶层设计与具体制度相结合的方式,加速构建人工智能治理体系,旨在推动人工智能朝着有益、安全、公平的方向健康有序发展,同时应对数据与AI权属模糊带来的现实挑战 [3][8][13] 现实困境:数据、人工智能的权属迷雾 - 数据、人工智能等新兴领域技术迭代快,权利边界模糊、权属关系复杂,给现有法律体系带来前所未有的冲击,挑战传统的安全边界 [4][5] - 在金融领域,AI应用带来效率与创新的同时,也伴随多维风险:复杂模型的“黑箱”特性导致算法歧视与责任认定困难;对海量数据的依赖加剧隐私泄露与滥用风险;监管滞后导致责任主体不清;AI决策权扩张引发伦理争议 [5][6] - 2025年,人民法院审结涉数据权属和交易等纠纷案件908件,同比增长25.6%,反映出监管层面亟须确立规则,建设涵盖法律法规、监管政策、技术标准的制度体系 [6] 顶层设计:制度建构+伦理指引 司法层面 - 最高人民法院发布《人民法院知识产权司法保护实施方案(2026—2030年)》,明确加强数据权益司法保护与妥善审理涉人工智能案件两大基本原则 [9] - 数据权益保护方面,坚持保护与开发利用并重,保护各类数据产权主体权益,界定不同数据的保护范围与强度,健全数据权益归属认定、市场交易等司法规则,助力完善数据要素基础制度 [9] - 涉AI案件审理方面,将综合考量自然人输入指令内容、选定修改过程等因素,判断AI生成内容是否体现自然人独创性,依法认定其法律属性;稳妥审理大模型训练语料使用及AI生成内容侵权等新类型案件;探索AI生成物权属认定规则,界定开发者、经营者、使用者等主体的法律责任 [9] - 最高人民法院下一步将加快研究制定数据权益、人工智能等新兴领域知识产权保护的规范性文件 [10] 伦理层面 - 工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,从六个维度构建AI治理审查框架 [11] - 六个维度包括:人类福祉(评估科学与社会价值、风险受益合理性)、公平公正(防止偏见歧视、保障决策包容性)、可控可信(保障系统鲁棒性、使用者控制权、制定应急预案)、透明可解释(披露运行逻辑与风险、提升可解释性)、责任可追溯(全链路信息记录、人员资质要求)、隐私保护(确保数据处理活动有效保护隐私) [11][12][13] 理论镜鉴:深耕“以人为本”的人工智能治理体系 - 实现人工智能在金融业的可持续发展,核心在于确立“以人为本”的智能金融价值取向 [15] - 优化治理生态应确立场景化、精细化治理导向,实施分级分类管理;厘清人机协作权责边界,确保人类掌握关键决策的最终价值判断权与控制权;维护公平竞争,推动算力、模型、数据等核心要素开放共享 [15] - 人工智能伦理治理是价值秩序的构建,可深植于中华优秀传统文化(如“民为邦本”、“执两用中”),以形成中国特色治理范式 [16] - 有必要制定行业统一的AI伦理准则与治理手册,明确数据使用边界、歧视防控及责任归属;建立AI伦理风险评估与事前审查机制,特别关注老年人、残障人士等特殊群体权益,防止“算法排斥”;推动建立“人机协同决策”机制,在风险高的应用中保留人工干预通道 [17][18]

事关人工智能纠纷,最高法正起草相关意见 - Reportify