人工智能模型治理的核心观点 - 人工智能治理正跨越分水岭,从依靠既定规则的智能走向自我学习进化的智能,同步浮现如何在推动创新同时确保模型安全可控的新治理命题 [1] - 围绕通用、前沿大模型的治理,中美欧形成三种差异化路径:欧盟构建复杂义务体系,美国加州采取小范围轻监管模式,中国则从应用场景出发延伸至模型本身 [1] 欧盟模型治理路径 - 欧盟在原有AI系统四级风险治理框架外,平行构建针对模型的治理机制,将通用模型区分为有无“系统性风险”两类 [2] - 所有通用模型提供者需披露技术文档、训练摘要、制定版权政策等,有系统性风险的模型还需进行模型评估、采取缓解措施和重大事件报告 [2] - 界定“系统性风险”结合理念性标准和技术性量化指标,如训练所用计算量超过10^25 FLOPs,并将应用端风险来源纳入考量 [2] - 模型义务超出模型自身控制范围,扩展至应用场景,导致模型与应用两套标准交叉重叠,治理框架高度复杂笨重 [3] - 欧盟委员会正推动“数字Omnibus”一揽子立法简化方案,对包括《AI法案》在内的法规进行简化修订以消减监管负担 [3] 美国加州模型治理路径 - 加州《前沿人工智能透明度法案》(SB 53)以产业自律为核心,删去强制安全协议等争议条款,大量简化透明度报告所需信息 [3] - 监管对象起点高范围窄,限定于“前沿开发者”,即训练使用超过10^26 FLOPs的基础模型的主体,“大型前沿开发者”需额外满足上一日历年总收入超过5亿美元门槛 [4] - 义务极为限缩轻量,透明度报告仅涉及网站、沟通机制等基础信息,大型前沿开发者需发布“前沿AI框架”并开展灾难性风险评估 [4] - 加州AI立法主线是促进产业发展和增强竞争力,避免对产业造成过多制约,多针对细分场景和特定问题 [5] 中国模型治理路径 - 中国治理并非直接指向模型本身,而是以实际应用服务为切入点,通过对应用服务的深入规制自下而上延伸至模型 [6] - 立法层面以算法治理为起点逐步形成对模型的制度性约束,从2021年算法推荐规定到2025年生成内容标识办法,通过应用服务实现对模型层的间接规制 [7] - 软法层面采用“内生风险—应用风险—衍生风险”三层结构,将“模型算法风险”归入“内生风险”范畴,使风险归因更符合技术与应用的实际边界 [8] - 模型治理始终以现实问题为导向,从应用服务入手延伸至模型层,通过实用有效抓手形成系统完善治理机制 [8] 模型治理的共性特征 - 总体思路展现“柔性治理、产业先行”倾向,欧盟《实践准则》属自愿性承诺,加州SB 53以企业自律主导,中国强调实践驱动与问题响应 [9][10] - 风险评估层面将“构建评估生态”视为可行路径,欧盟建议社区驱动评估榜单,加州要求纳入第三方评估,中国提出建立安全测评体系 [10] - 模型治理工具选择上,透明度因技术中立、操作性强成为核心手段,为创新留出空间,中国在透明度建设方面走在前列 [11] - 中美治理路径从具体应用场景出发,有助于厘清模型风险与应用风险边界,避免将应用风险误归于模型本身 [11]
关于模型治理,中美欧的差异与共识
36氪·2025-11-14 19:07