AI法案
搜索文档
关于模型治理,中美欧的差异与共识
腾讯研究院· 2025-11-14 18:13
文章核心观点 - 人工智能治理正从基于规则的智能转向自我学习进化的智能,模型治理成为关键议题 [2] - 中美欧在通用及前沿大模型治理上形成三种差异化路径:欧盟构建复杂义务体系,美国加州采取轻监管模式,中国从应用场景延伸至模型治理 [2][3] - 三方共性包括柔性治理倾向、构建评估生态、以透明度为核心工具,差异体现在监管范围、义务强度与风险判断逻辑 [2][11][12] 欧盟模型治理路径 - 在原有AI系统四级风险体系外,平行构建针对通用模型的治理机制,区分有无"系统性风险"的模型 [4] - 系统性风险判断结合理念性标准(如"高影响能力")与技术性量化指标(如训练计算量超过10^26 FLOPs) [4] - 模型义务扩展至应用场景,如要求模型提供者构建未来风险情景和收集最终用户反馈,超出其对模型自身的控制范围 [5] - 治理框架复杂笨重,模型风险与应用风险混同,导致模型提供者承担无法预见的责任,欧盟正推动立法简化方案 [5] 美国加州模型治理路径 - 监管起点高且范围窄,仅覆盖训练计算量超过10^26 FLOPs的"前沿开发者","大型前沿开发者"需额外满足年总收入超5亿美元门槛 [5] - 义务轻量化,透明度报告仅要求基础信息,如网站、沟通机制和预期用途,对比欧盟对技术文档的细节要求极为限缩 [5][6] - 立法主线为促进产业发展,避免过多制约,过去三年出台的AI法规多针对细分场景(如伴侣聊天机器人、医疗AI误用) [6] 中国模型治理路径 - 以应用服务为切入点,自下而上延伸至模型治理,通过算法推荐、深度合成、生成式AI等服务规制间接约束模型层 [7][8] - 采用"内生风险—应用风险—衍生风险"三层结构,将模型算法风险归入内生风险范畴(如可解释性不足、鲁棒性不强),厘清风险边界 [9] - 治理工具务实,依托算法备案、安全评估、内容标识等具体抓手,形成系统完善的治理机制 [8][9] 三方治理共性 - 均体现柔性治理倾向:欧盟《实践准则》为自愿性承诺,美国加州SB 53以企业自律主导,中国以指导性文件推进治理 [11] - 重视构建评估生态:欧盟建议社区驱动模型评估榜单,美国要求第三方灾难性风险评估,中国提出建立安全测评体系 [11] - 透明度成为核心工具:欧盟按披露对象分级设置信息层级,加州按开发者规模纵向分级,中国通过算法备案实现模型功能可见性 [12]