Workflow
移动Agent
icon
搜索文档
AI应用泄露个人隐私?数据安全亟需构建三方“协作桥”
中国新闻网· 2025-10-18 00:08
AI行业数据安全风险与挑战 - 人工智能行业迅猛发展,AI Agent应用需求迅速增长,但爆发式增长依赖海量用户数据,使用户面临更高隐私泄露风险[1] - 今年5月,国家网络安全通报中心公布的35款存在违法违规收集使用个人信息情况的移动应用中,多款涉及AI大模型[1] - 同月,AI绘图工具ComfyUI存在多个高危漏洞,已有境外黑客组织利用该漏洞对我国网络资产实施网络攻击,伺机窃取重要敏感数据[1] 企业端侧安全防护策略 - AI技术发展使数据库攻击多元化,从端侧进行轻量化、全面化防御更为困难[2] - 企业构建数据安全防护体系需从硬件、系统、开发框架、数据、模型等多方面入手,并采取交互式防御手段,保证链路式数据安全[2] - 移动Agent安全架构将经历从"外挂式"防护到"内生式"安全根本性转变,通过硬件重构、系统重构和协议重构构建安全可靠基础技术底座[2] - 端云协同机密计算环境将成为移动Agent安全核心支撑,下一代移动平台或将整合独立AI安全引擎,实现模型参数和用户数据的全流程保护[2] 行业技术挑战与监管环境 - 移动Agent安全技术面临三大核心挑战:加密计算算力开销影响用户体验、多样化硬件平台和操作系统导致安全方案难标准化、自主决策能力可能引发不可预知安全事件[3] - Agent安全技术需破除现有封闭格局,通过标准共建、算力端云协同、安全中间件构建形成开放协同的全网生态[3] - 监管层面通过专项整治、常态化检查等方式推动企业数据收集向最小、必要、透明、可控方向加速转变[3] - 由于AI技术革新和落地速度较快,监管标准和政策制定往往具有滞后性[3] 标准制定与合规建议 - 应尽快拟定初步标准及相关规定,并跟随AI技术迭代不断修订[4] - 从标准制定角度看,因AI变化发展迅速且具有千人千面特性,难以用单一标准管理所有场景,建议采用隐私分级方式进行逐级递增管理和规范[4] - 为更好落实标准并保障合规性,需要对AI使用数据进行分级处理,以便更好适应政策要求并创造更多创新空间[4]