给开源AI投喂敏感数据后…
搜狐财经·2026-01-09 00:20
开源AI大模型的应用与数据安全风险 - AI大模型作为“数字伙伴”正加速融入千行百业,但其广泛应用也带来了新的安全风险[1] - 国家安全部披露案例显示,有单位因直接使用开源框架建立联网大模型,导致攻击者可未经授权自由访问内部网络,引发数据泄露[1] - 具体案例中,某单位工作人员违规使用开源AI工具处理内部文件,因电脑系统默认开启公网访问且未设密码,导致敏感资料被境外IP非法访问和下载[1] 开源大模型的定义与工作原理 - 开源大模型是指将模型的架构、参数、训练数据公开给客户免费使用的人工智能模型[3] - 互联网上开放的开源大模型众多,各有所长,例如擅长推理、编写代码、处理文本或影像等[3] - AI工具具有数据存储功能,网民投喂给AI的任何文件、图片等数据,AI都会进行存储,这是其工作原理的一部分,以便对数据进行分析[3][5] 开源大模型的主要安全隐患 - 数据安全是开源大模型最大的隐患,上传到开源大模型的任何数据,模型自身都会进行存储[5] - 若将公司内部机密数据上传至开源大模型,这些数据即面临泄露风险[5] - 数据泄露途径主要有二:一是AI工具的开发者拥有完全访问权限,可查看这些数据;二是黑客可能利用大模型本身的开源漏洞攻击入侵后台,获取数据[7] 数据安全防护建议 - 作为普通网民,在日常使用互联网开源大模型时,应注意不要将个人敏感信息、隐私信息上传至模型中[9] - 企业在使用开源大模型训练自身数据时,应注意采用私有化部署方式,将所有数据保存在本地,避免内部数据上传至互联网[9] - 私有化部署方式需要相应投入基础设施和组建专业团队进行维护[9]