人工智能面对多重安全风险 协同治理机制有待健全
第一财经·2026-02-04 12:50

文章核心观点 - 人工智能技术在快速迭代创新的同时,其伴生的安全与治理问题(如数据安全、算法偏见、模型幻觉等)尚未有效解决,已成为阻碍技术红利释放的关键掣肘 [1][3] - 行业与监管层面正协同加速构建AI安全治理体系,通过政策引导、标准制定和行业自律,旨在推动人工智能应用向合规、透明、可信赖的方向发展 [4][5][6] AI技术发展现状与趋势 - 2025年人工智能技术持续快速迭代,基础模型推理能力显著增强,并实现图像、语音和文本等多模态应用 [3] - 智能体技术打通“感知、决策、行动”闭环,使模型从“语言生成器”向“任务执行者”转变 [3] - 具身智能驱动机器人实现高阶认知与自主学习 [3] - 人工智能与生物化学、医药研发等基础科学深度融合,驱动科研范式变革 [3] AI面临的主要安全风险与挑战 - 不当内容生成:模型可能生成违规内容、表达偏见立场或使用不恰当语言,导致合规风险和声誉损害 [2] - 越权引导:通过精心设计的提示词诱导模型绕过安全限制,回答敏感问题或提供受限信息,且攻击手段随模型能力增强不断演进 [2] - 数据与内容合规风险:训练数据可能包含版权、隐私和知识产权问题,生成内容的法律责任归属模糊 [2] - 输出不可控与不可解释:模型回答存在随机性和不确定性,相同问题可能产生不一致结果,且逻辑难以解释,预测和控制能力有限 [2] - 多模态融合输入风险:处理图片、音频、视频等多种输入时,跨模态安全边界不一致,导致单一模态防护被绕过,产生安全盲区 [2] - 过度推理与算力消耗风险:诱导模型执行过度计算,可能触发资源密集型处理,导致服务响应延迟、成本爆炸和系统资源耗尽 [2] - 技术黑箱与产业链复杂性:技术的黑箱属性、应用的不确定性及产业链条的多样性,给模型研发、部署、应用等不同组织主体带来管理挑战 [4] 行业治理现状与协同需求 - 人工智能风险的精准防控非单一企业能独立完成,是需要全产业协同推进的系统性工程 [4] - 当前行业在核心治理环节普遍存在共建合力不足的问题,统一标准尚未形成、协同机制仍需完善 [4] - AI可解释性实践尚处于早期快速发展阶段,应鼓励行业自律和“向上竞争” [6] 监管政策与治理框架建设 - 2025年8月,国务院发布《关于深入实施“人工智能+”行动的意见》,要求提升安全能力水平,防范模型黑箱、幻觉、算法歧视等风险,并建立健全技术监测、风险预警、应急响应体系 [4] - 2025年8月,工业和信息化部等部门联合发布《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》,旨在强化科技伦理风险防范,促进负责任创新 [5] - 2025年12月,国家互联网信息办公室公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次针对“AI陪伴”类服务提出系统性规范 [5] - 监管方向坚持包容审慎、分类分级,旨在加快形成动态敏捷、多元协同的人工智能治理格局 [4] 业界观点与治理方向 - 内容合规依旧是大模型的生命线,围绕提示词的各类安全攻击是目前各大模型服务面临的最大挑战 [1] - 大模型伦理和安全四大核心议题包括:可解释性与透明度、价值对齐、安全治理框架、以及AI意识与福祉 [5] - AI模型安全治理的未来,需通过可解释性、价值对齐、安全治理政策等安全护栏和干预措施,让AI遵从人类价值,实现人机协作,打造“智能为人、不落下每一个人”的未来 [6]