Workflow
模型治理
icon
搜索文档
关于模型治理,中美欧的差异与共识
36氪· 2025-11-14 19:07
从算法到模型,人工智能正跨越一个分水岭——从依靠既定规则的智能,走向自我学习进化的智能。同 步,一个全新的治理命题浮现:如何在推动创新的同时,确保模型的安全与可控?近期,围绕模型治理 ——特别是通用、前沿大模型的治理,中美欧交出不同答卷。2025年7月,欧盟发布自愿性指导性文件 《通用人工智能实践准则》(以 下简称《 实践准则》),旨在帮助模型提供者遵守 《人工智能法案》 中有关通用人工智能模型的义务规范。 [1] 9月,美国加州州长签署《前沿人工智能透明法案》 (SB 53) ,聚焦于"前沿模型" (Frontier Models) 的透明度义务。 [2] 同月,中国发布《人工智能安全治理 框架2.0》,尽管并非针对模型,但作为指导性政策文件,其明确了模型层面的风险,并提出了相应的 风险应对指引。 [3] 如何治理模型:欧盟、美国加州与中国的探索 中美欧在模型治理上形成了三种差异化路径:欧盟构建层层叠叠的风险类别,配套高密度的义务;美国 以加州为代表,选择小范围、轻监管模式,强调企业自律;中国则从应用场景出发,通过"自下而上"的 方式延伸至模型本身。理解以上路径的共性与差异,有助于厘清模型治理在人工智能治理 ...
关于模型治理,中美欧的差异与共识
腾讯研究院· 2025-11-14 18:13
文章核心观点 - 人工智能治理正从基于规则的智能转向自我学习进化的智能,模型治理成为关键议题 [2] - 中美欧在通用及前沿大模型治理上形成三种差异化路径:欧盟构建复杂义务体系,美国加州采取轻监管模式,中国从应用场景延伸至模型治理 [2][3] - 三方共性包括柔性治理倾向、构建评估生态、以透明度为核心工具,差异体现在监管范围、义务强度与风险判断逻辑 [2][11][12] 欧盟模型治理路径 - 在原有AI系统四级风险体系外,平行构建针对通用模型的治理机制,区分有无"系统性风险"的模型 [4] - 系统性风险判断结合理念性标准(如"高影响能力")与技术性量化指标(如训练计算量超过10^26 FLOPs) [4] - 模型义务扩展至应用场景,如要求模型提供者构建未来风险情景和收集最终用户反馈,超出其对模型自身的控制范围 [5] - 治理框架复杂笨重,模型风险与应用风险混同,导致模型提供者承担无法预见的责任,欧盟正推动立法简化方案 [5] 美国加州模型治理路径 - 监管起点高且范围窄,仅覆盖训练计算量超过10^26 FLOPs的"前沿开发者","大型前沿开发者"需额外满足年总收入超5亿美元门槛 [5] - 义务轻量化,透明度报告仅要求基础信息,如网站、沟通机制和预期用途,对比欧盟对技术文档的细节要求极为限缩 [5][6] - 立法主线为促进产业发展,避免过多制约,过去三年出台的AI法规多针对细分场景(如伴侣聊天机器人、医疗AI误用) [6] 中国模型治理路径 - 以应用服务为切入点,自下而上延伸至模型治理,通过算法推荐、深度合成、生成式AI等服务规制间接约束模型层 [7][8] - 采用"内生风险—应用风险—衍生风险"三层结构,将模型算法风险归入内生风险范畴(如可解释性不足、鲁棒性不强),厘清风险边界 [9] - 治理工具务实,依托算法备案、安全评估、内容标识等具体抓手,形成系统完善的治理机制 [8][9] 三方治理共性 - 均体现柔性治理倾向:欧盟《实践准则》为自愿性承诺,美国加州SB 53以企业自律主导,中国以指导性文件推进治理 [11] - 重视构建评估生态:欧盟建议社区驱动模型评估榜单,美国要求第三方灾难性风险评估,中国提出建立安全测评体系 [11] - 透明度成为核心工具:欧盟按披露对象分级设置信息层级,加州按开发者规模纵向分级,中国通过算法备案实现模型功能可见性 [12]