关于模型治理,中美欧的差异与共识
36氪·2025-11-14 19:07
从算法到模型,人工智能正跨越一个分水岭——从依靠既定规则的智能,走向自我学习进化的智能。同 步,一个全新的治理命题浮现:如何在推动创新的同时,确保模型的安全与可控?近期,围绕模型治理 ——特别是通用、前沿大模型的治理,中美欧交出不同答卷。2025年7月,欧盟发布自愿性指导性文件 《通用人工智能实践准则》(以 下简称《 实践准则》),旨在帮助模型提供者遵守 《人工智能法案》 中有关通用人工智能模型的义务规范。 [1] 9月,美国加州州长签署《前沿人工智能透明法案》 (SB 53) ,聚焦于"前沿模型" (Frontier Models) 的透明度义务。 [2] 同月,中国发布《人工智能安全治理 框架2.0》,尽管并非针对模型,但作为指导性政策文件,其明确了模型层面的风险,并提出了相应的 风险应对指引。 [3] 如何治理模型:欧盟、美国加州与中国的探索 中美欧在模型治理上形成了三种差异化路径:欧盟构建层层叠叠的风险类别,配套高密度的义务;美国 以加州为代表,选择小范围、轻监管模式,强调企业自律;中国则从应用场景出发,通过"自下而上"的 方式延伸至模型本身。理解以上路径的共性与差异,有助于厘清模型治理在人工智能治理 ...