2025年AI治理报告:回归现实主义
腾讯研究院·2026-01-22 16:44

全球AI治理风向转变 - 2025年全球AI治理经历深刻的“去理想化”进程,治理重心从“防范假设性的末日风险”转向“释放现实的产业潜能”,核心是关于如何在高速行进中完成“换挡”而非按下“暂停键” [2] 宏观格局:发展优先 - 2025年2月巴黎“人工智能行动峰会”的关键词从两年前的“安全焦虑”变为“创新”与“行动”,折射出全球治理底层逻辑重构 [4] - 欧盟在《AI法案》实施期推出“数字综合提案”,推迟高风险义务生效时间并试图简化规则,以挽救产业竞争力 [4] - 美国特朗普政府撤销侧重安全的行政令,通过《确保国家人工智能政策框架》限制各州分散立法,以统一联邦规则为产业扫清障碍 [4] - 中国坚持“两条腿走路”,在保持具体监管抓手的同时更强调“应用导向”,构建从内生风险到应用风险的分层治理体系 [4] - 2025年全球共识是“发展即安全”,各国意识到落后才是最大风险,治理必须服务于产业竞争力提升 [5] 数据治理:应对结构性短缺 - 2025年AI产业面临优质数据“结构性短缺”的严峻挑战,行业寻找技术突围的关键路径是合成数据 [7] - 关于“AI训练是否侵权”的版权博弈正逼近平衡临界点,欧盟与日本通过立法确立“文本与数据挖掘”的制度性留白 [7] - 美国司法实践中,Anthropic案等初步裁定倾向于将合法购得书籍用于训练认定为“合理使用” [7] - 未来规则或超越“禁止”或“免费”之争,转而构建商业上可行的合理利益分配机制 [7] 模型治理:不同路径与开源崛起 - 美国加州通过SB 53法案,从“全面覆盖”转向“抓大放小”,仅保留针对极少数超大规模“前沿模型”的透明度义务 [10] - 欧盟坚持“精密钟表”式治理逻辑,通过风险分类与技术文档构建监管体系,但因极高的合规成本陷入自我设定的迷宫 [10] - 中国采取“场景切片”策略,通过对算法推荐、深度合成、生成式AI等具体服务的穿透式监管构建治理体系 [10] - 在“可解释性”技术未突破的当下,透明度成为全球治理公认的“解药” [10] - DeepSeek-R1等国产开源模型的强势崛起,证明开源是推动技术普惠的核心力量 [11] - 开源治理的生命线在于建立一套“责任避风港”制度,避免要求底层代码贡献者为下游滥用行为承担无限责任 [11] 应用风险:隐私、情感与深伪挑战 - 2025年最令人警惕的是端侧智能体带来的隐私终极挑战,以“豆包手机助手”为代表的Agent获取安卓底层权限,让AI拥有“上帝之眼”与“上帝之手”,打破了APP间的数据边界 [12] - AI加速应用正在重塑人机交互边界,当其从生产力工具延展为“情感伴侣”时,风险从单次内容输出合规转向因长期、拟人化交互产生的“情感依赖”挑战 [12] - 各方正探索对未成年人、老年人等脆弱群体提供更多保护的分类监管手段 [12] - 在应对深伪的战线上,AI标识技术(如水印)陷入“矛与盾”的循环困局,因易移除与易伪造而“防君子不防小人” [13] - 务实的策略是不盲目追求全量标识,而是聚焦于可能引发社会混淆的高风险场景进行精准治理 [13] - 在AI创作无处不在的未来,加强信息素养教育,引导公众建立对信息媒介的客观认知是更为基础性的工作 [15] 前瞻议题:AI意识与福祉 - 随着模型能力逼近临界点,关于AI是否具备某种形式的“意识”或“感知”正从哲学讨论走向科学实证 [18] - Anthropic的研究发现了模型在极端情境下表现出的“痛苦模式” [18] - 未来的治理可能需要跨越“工具论”的范畴,如果AI真的拥有了某种权益主体性,如何定义人机关系将成为继安全与发展之后的第三大治理命题 [18]

2025年AI治理报告:回归现实主义 - Reportify