智能体存数据黑箱 用户数据流向何处
21世纪经济报道·2025-07-03 08:46

智能体行业发展现状 - 2025年被称为"智能体元年",AI发展从对话生成跃迁到自动执行,智能体成为最重要的商业化锚点和下一代人机交互范式 [1] - 近八成业内人士担心用户数据泄露的后果,数据黑箱问题突出,个人敏感信息流向不透明 [2] - App时代数据透明度问题在智能体时代更加棘手,智能体协同工作涉及多个环节,每个环节都可能触发用户数据的收集、存储、调用和跨主体交换 [2] 智能体数据透明度差异 - 通义平台(阿里巴巴)的简历制作助手智能体在生成简历前明确提示风险,并主动说明将隐去身份证号、手机号等敏感信息 [7] - 星辰(讯飞)、文心(百度)等平台虽未主动提示风险,但会在输出结果中用"**"替代敏感字段,从技术上规避 [9] - 智谱、元器(腾讯)、扣子(字节跳动)等平台既不警示用户,也未遮掩输出结果中的敏感信息 [11] 智能体责任划分机制 - 用户与智能体交互产生的数据普遍被归类为"开发者数据",处理责任明确落在开发者身上 [12] - 智能体平台通过协议构建"责任防火墙",作为技术提供者保持中立,将数据风险和合规义务转交给智能体开发者 [12] - 百度等平台协议称不会主动使用开发者提交的数据训练自身通用大模型,但保留"开发者可选择授权平台使用数据以优化服务"的前提 [12] 开发者合规能力现状 - 大部分开发者在安全合规方面能力薄弱,缺乏制度性规范和实践经验 [13] - 许多开发者未意识到对用户数据负有法律责任,更未建立标准化风控流程,难以真正承担责任 [13] - 平台虽在协议中将数据责任"归位"给开发者,但实际执行中开发者能力不足导致责任难以"到位" [13]