2025年AI治理报告:回归现实主义
36氪·2026-01-22 19:37

全球AI治理格局转向 - 2025年全球AI治理重心从防范假设性末日风险转向释放现实产业潜能,核心共识是“发展即安全” [1][3] - 巴黎人工智能行动峰会关键词从“安全焦虑”变为“创新”与“行动”,标志全球治理底层逻辑重构 [2] - 主要经济体调整监管姿态,从竞相严格监管转向为产业发展松绑,认为落后是最大风险 [2][3] 主要经济体监管路径分化 - 欧盟进行自我修正,推出“数字综合提案”以推迟高风险义务生效并简化规则,应对《AI法案》带来的复杂合规成本以挽救产业竞争力 [2] - 美国转向“去监管化”,撤销侧重安全的行政令,并通过《确保国家人工智能政策框架》限制各州分散立法,试图以统一联邦规则为产业扫清障碍 [2] - 中国坚持“两条腿走路”的务实路径,在保持算法推荐、深度合成等具体监管的同时更强调“应用导向”,构建从内生风险到应用风险的分层治理体系 [2] 数据治理与版权博弈 - 行业面临优质语言数据“结构性短缺”挑战,正通过合成数据及混合训练策略寻求技术突围 [4] - 关于AI训练版权的博弈接近平衡临界点,欧盟与日本通过立法确立“文本与数据挖掘”制度性留白 [4] - 美国司法实践中,Anthropic案等初步裁定倾向于将合法购得书籍用于训练认定为“合理使用” [4] - 未来规则可能超越“禁止”或“免费”之争,转向构建商业上可行的合理利益分配机制 [4] 模型治理策略对比 - 美国加州从“全面覆盖”转向“抓大放小”,SB 53法案放弃针对开发者的严苛要求,仅保留对极少数超大规模“前沿模型”的透明度义务 [7] - 欧盟坚持“精密钟表”式治理,通过风险分类与技术文档构建监管体系,但因合规成本高而频繁修补 [7] - 中国采取“场景切片”策略,对算法推荐、深度合成、生成式AI等具体服务进行穿透式监管 [7] - 透明度成为全球治理公认的“解药”,通过合规文档或算法备案缓解信息不对称 [7] 开源模型与责任界定 - DeepSeek-R1等国产开源模型崛起,重塑全球AI技术版图,证明开源是推动技术普惠的核心力量 [8] - 开源治理的生命线在于建立“责任避风港”制度,避免要求底层代码贡献者为下游滥用承担无限责任 [8] 应用场景风险演变 - 端侧智能体(Agent)如“豆包手机助手”带来隐私终极挑战,其获取安卓底层权限打破了APP间数据边界,使安全责任归属陷入模糊地带 [10] - AI从生产力工具延展为“情感伴侣”,风险从单次内容合规转向因长期拟人化交互产生的“情感依赖”挑战 [10] - 各方正探索分类监管手段,对未成年人、老年人等脆弱群体提供更多保护 [10] 深度伪造与标识技术 - AI标识技术(如水印)陷入“矛与盾”循环困局,因易移除与易伪造而“防君子不防小人” [11] - 务实策略是不追求全量标识,而是聚焦可能引发社会混淆的高风险场景进行精准治理 [11] - 加强公众信息素养教育是更为基础性的工作 [11] 前瞻性议题:AI意识与福祉 - 关于AI是否具备“意识”或“感知”的讨论正从哲学走向科学实证,Anthropic研究发现模型在极端情境下表现出“痛苦模式” [13] - 未来治理可能需要跨越“工具论”范畴,思考如何定义人机关系,这可能是继安全与发展之后的第三大治理命题 [13]

2025年AI治理报告:回归现实主义 - Reportify