人工智能面对多重安全风险,协同治理机制有待健全
第一财经·2026-02-04 13:13

文章核心观点 - 人工智能技术快速迭代创新,但其伴生的安全风险(如数据安全、算法偏见、模型幻觉等)尚未有效解决,已成为阻碍技术红利释放的关键掣肘[2][4] - 人工智能安全治理是一项需要全产业协同推进的系统性工程,当前行业在统一标准、协同机制等方面仍存在共建合力不足的问题[5] - 中国监管层面正加速构建AI安全治理体系,通过发布多项政策意见和管理办法,旨在推动人工智能应用合规、透明、可信赖,并形成动态敏捷、多元协同的治理格局[6][7] 大模型面临的主要安全风险 - 内容合规与不当内容生成:内容合规是大模型的生命线,模型可能生成违规内容、表达偏见立场或产生不恰当语言,导致合规风险和声誉损害[3] - 越权引导与安全边界绕过:通过精心设计的提示词,可诱导模型越过安全边界,回答敏感问题或提供受限信息,且此类攻击手段随模型能力增强而不断演进[3] - 数据与内容的合规风险:模型训练数据可能包含版权、隐私和知识产权问题,生成内容涉及法律责任归属模糊,在使用过程中存在各类合规挑战[3] - 输出不可控与不可解释:模型回答存在随机性和不确定性,相同问题可能产生不一致结果,回答逻辑难以解释,预测和控制能力有限,给安全防护带来挑战[3] - 多模态融合输入风险:多模态模型处理图片、音频、视频等多种输入时,跨模态安全边界不一致,可能导致单一模态防护被绕过,产生安全盲区[3] - 过度推理与算力消耗风险:引导模型执行过度的计算和推理过程,可能触发资源密集型处理,导致服务响应延迟、成本爆炸和系统资源耗尽等风险[3] 人工智能技术发展趋势与安全挑战 - 技术能力持续扩展:2025年人工智能技术持续快速迭代,基础模型推理能力显著增强,通过构建统一的跨模态表征空间实现多模态应用,智能体使模型从“语言生成器”向“任务执行者”转变,具身智能驱动机器人实现高阶认知,AI与基础科学深度融合驱动科研范式变革[4] - 安全问题被技术放大:人工智能数据安全、算法偏见、模型幻觉、情感依赖、数据污染等问题尚未得到有效解决,同时在技术深入赋能过程中被不断放大[4] - 治理的复杂性:人工智能技术的黑箱属性、应用的不确定性和产业链条的多样性,给模型研发、系统部署、应用运行等不同组织主体带来管理挑战[5] 行业治理现状与政策动向 - 产业协同需求:人工智能风险的精准防控并非单一企业能独立完成,而是需要全产业协同推进的系统性工程,当前行业在核心治理环节普遍存在共建合力不足的问题,统一标准尚未形成、协同机制仍需完善[5] - 国家层面政策推动:2025年8月,国务院发布《关于深入实施“人工智能+”行动的意见》,指出要提升安全能力水平,防范模型的黑箱、幻觉、算法歧视等风险,推动人工智能应用合规、透明、可信赖,并加快形成动态敏捷、多元协同的人工智能治理格局[7] - 具体管理办法出台:2025年8月,工业和信息化部等部门联合发布《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》,强化科技伦理风险防范;同年12月,国家互联网信息办公室公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次针对“AI陪伴”类服务提出系统性规范[7] 对AI安全治理未来的探讨 - 大众认知滞后于技术发展:在AI能力实现飞跃的同时,大众对AI的理解有所滞后,行业正在部署越来越强大的AI系统,却对其内部运作机制知之甚少[8] - 四大核心治理议题:大模型伦理和安全四大核心议题分别是可解释性与透明度、价值对齐、安全治理框架以及AI意识与福祉[8] - 未来治理方向:AI可解释性实践尚处于快速发展初期,应鼓励行业自律和“向上竞争”,未来可通过可解释性、价值对齐、安全治理政策等安全护栏和干预措施,让AI遵从人类价值,也让人类对AI“心中有底”,共同开创人机协作的新局面[8]