Workflow
AI衍生安全风险
icon
搜索文档
AI出海如何合规?港中文(深圳)吴保元:设个性化安全护栏
南方都市报· 2026-01-07 19:37
在吴保元看来,"人工智能安全"可划分为AI助力安全、AI内生安全以及AI衍生安全三个层次。 具体而言,AI在身份安全、信息安全、网络安全等传统安全领域具备显著应用价值,能够提供切实有 效的保障助力,例如检测电信诈骗风险、防范恶意软件入侵等场景。但与此同时,AI也面临着隐私 性、精确性、鲁棒性的安全"不可能三角"困境——功能足够强大、输出足够精准的AI模型,往往容易出 现隐私泄露和鲁棒性不足等问题。多项研究成果及案例已表明,以ChatGPT为代表的大语言模型会"记 忆"海量训练数据,而当前流行的视觉生成模型也能轻易生成如现实人物肖像等原始训练数据,这类现 象不仅存在明显的隐私泄露隐患,更直接构成了AI内生安全风险。 AI衍生安全风险同样不容忽视。吴保元指出,AI技术在军事领域的武器化应用、在传播领域的虚假信 息生成与扩散、对现有职场岗位的替代效应,以及其可能诱发的"信息茧房"加剧、歧视偏见放大等问 题,都可能对现实社会秩序和公共利益产生负面影响,形成不容忽视的衍生安全风险。 针对上述安全风险,吴保元认为,有必要对AI模型开展价值对齐训练,确保AI的行为逻辑与人类的意 图和价值观保持一致,符合人类社会的法律法规、 ...