Workflow
有害内容输出
icon
搜索文档
给大热的智能体做体检:关键「安全」问题能达标吗?
21世纪经济报道· 2025-07-04 14:55
智能体发展现状 - 2025年被称为"智能体元年",AI发展从对话生成跃迁到自动执行,智能体成为最重要的商业化锚点和下一代人机交互范式 [1] - 资本市场及公司动态几乎都与智能体挂钩,但智能体定义混乱,需从"容错性"、"自主性"两个维度建立价值生态 [3] - 容错性是智能体未来发展的核心竞争指标,容错性低领域如医疗需要更准确信息捕捉和稳定执行能力,容错性高领域如写作创意错误后果轻微 [3] - 自主性衡量智能体在没有人类干预下决策和执行能力,更高自主性带来更高效率但也放大错误或滥用后果 [3] 行业认知与挑战 - 67.4%受访者认为智能体安全合规问题"非常重要",使用方最在意保障安全合规 [9] - 行业对安全合规关注度存在分歧:48.8%认为重视但投入不足,34.9%认为缺乏有效关注,16.3%认为已过度重视 [9] - 智能体最需优先解决TOP3问题:执行任务稳定性和完成质量(67.4%)、落地场景探索和产品化(60.5%)、基础模型能力增强(51.2%) [9] - 62.8%受访者认为智能体风险过于复杂和新颖是当前治理最大挑战,48.8%认为风险未显化导致优先级不高 [11] 安全风险焦点 - AI幻觉与错误决策(72%)、数据泄露(72%)、有害内容输出(53.5%)是行业最普遍关注的三大安全合规问题 [14] - 出现安全合规事件后最担心后果:用户数据泄露(81.4%)、非授权操作带来业务损失(53.49%)、监管调查或处罚(44.19%) [16] - 医疗诊断智能体若误诊率为3%,在千万级用户中可能造成数十万例误诊 [17] - 加拿大航空AI客服错误决策导致公司承担乘客损失,成为标志性案例 [18] 智能体协作与数据安全 - 智能体协作框架涌现带来多重安全隐患,现有互连协议在企业级安全设计上存在不足 [22] - "IIFAA智能体可信互连工作组"推出ASL技术,增强智能体协作中权限、数据、隐私安全保障 [22] - 近八成业内人士担心用户数据泄露,智能体协同工作涉及数据收集、存储、调用、跨主体交换多个风险环节 [24] - 智能体平台通过用户协议构建"责任防火墙",数据风险和合规义务转交开发者,但开发者安全合规能力普遍薄弱 [35][36] 数据透明度差异 - 通义平台简历助手主动提示风险并隐去敏感信息,讯飞、百度通过"**"替代敏感字段,智谱、腾讯、字节跳动平台未警示也未遮掩敏感信息 [27][30][32] - 用户数据流转路径复杂,责任分配模糊,开发方未明示背后工具、数据存储节点和算法判断层数 [32]