生成式AI技术应用与风险 - 生成式AI在数据分析、智能交互、效率提升等领域展现巨大潜力,为解决复杂问题提供新思路[1] - AI换脸诈骗、大模型拒绝关闭等事件凸显技术滥用、伦理道德、隐私保护等风险[1] - AI技术安全风险包括数据隐私、攻击门槛降低、生成内容滥用、内生安全不足四大类[2][3][4] AI安全防护策略 - 全生命周期数据保护是防范数据泄露核心策略,覆盖模型引入、训练、微调及智能体开发全流程[5] - 训练数据需扫描敏感信息并标识来源,开源模型需供应链漏洞检测以防止后门攻击[6] - 智能体发布前需安全攻击测试,运行中持续监测风险[6] 当前防护策略的盲区与挑战 - 供应链和生态风险突出,开源组件广泛使用增加漏洞可能性[7] - 智能体开发"低代码化"导致治理滞后,恶意智能体可能诱导用户访问钓鱼网站[7] - 多智能体协作缺乏可信认证机制,存在身份伪造风险[7] 企业应对AI风险的实践建议 - 企业需远期部署安全制度、流程及防御技术,加强模型引入审查和对外开放前测试[9][10] - 风险控制需精细化,结合用户意图定性风险,避免"一刀切"拦截策略[10][11] - 蚂蚁集团推出"蚁天鉴"安全解决方案,包含检测平台和防御平台,已开放给数十家外部机构[12][13] AI安全未来发展趋势 - 安全能力嵌入AI基础设施,实现"出厂即安全"以降低应用环节成本[15] - 突破数字水印、知识库隐私保护等特定技术,解决中小企业安全风险[16] - 行业标准将统一技术规范、协调多方利益,降低中小企业安全门槛[18][19] AI安全与创新的平衡 - 安全与创新互相成就,利用AI对抗AI升级防御能力[17] - 蚂蚁集团参与制定国内外AI安全标准80余项,推动行业共识与规范创新[19]
专访蚂蚁集团大模型数据安全总监杨小芳:AI安全与创新发展不是对立的,而是互相成就