360胡振泉谈AI换脸乱象:以现有识别鉴定技术看破有难度

文章核心观点 - AI大模型安全风险日益突出,攻击门槛降低且风险呈指数级增长,行业正面临传统安全方案难以应对的复杂威胁矩阵[3][4] - 公司发布《大模型安全白皮书》,系统性归纳五类关键风险并提出双轨治理策略,以应对当前安全挑战[3][4] - 尽管AI智能体发展初期面临争议,但其作为大模型应用重要载体的前景被看好,预计将迎来巨大跃升[5] AI安全风险现状 - 国内首次AI大模型实网众测累计发现安全漏洞281个,其中大模型特有漏洞177个,占比超过60%[3] - AI生成内容过于逼真,以现有技术进行识别和鉴定仍存在难点[1] - 攻击手段已从技术层面单一威胁演变为系统性风险,智能体出现后攻击门槛越来越低[3] 大模型安全关键风险分类 - 基础设施安全风险:涉及设备控制、供应链漏洞、拒绝服务攻击及算力资源滥用等问题[4] - 内容安全风险:涉及不符合核心价值观内容、虚假或违规内容、大模型幻觉及提示注入攻击等[4] - 数据与知识库安全风险:数据泄露、越权访问、隐私滥用和知识产权问题日益突出[4] - 智能体安全风险:插件调用、算力调度、数据流转等环节安全边界模糊[4] - 用户端安全风险:包括权限控制、API调用监控、恶意脚本执行及MCP执行安全等[4] 行业安全需求与应对策略 - 党政单位、机关单位等针对AI换脸等安全问题存在大量相关安全需求[1] - 外挂式安全策略侧重模型外部防护,通过以模治模实现对算力主机、软件生态等的主动监测与防御[4] - 平台原生安全策略聚焦将安全能力嵌入大模型数据、知识库等核心组件,强化全流程合规管控[4] AI智能体发展前景 - 智能体作为大模型应用与落地的重要承接载体,在发展初期饱受争议属正常现象[5] - 智能体补足大模型没有手和脚的缺陷,能独立调用技术、感知环境、分析判断和规划执行[5] - 大模型从聊天机器人发展为可影响各种业务的技术工具仅用两三年,智能体虽未达高效但将迎跃升[5]