Workflow
生成式人工智能安全
icon
搜索文档
第四届网络安全研究发展研讨会在赣举行
新华网· 2025-12-08 11:29
行业动态与会议概况 - 第四届网络安全研究发展研讨会暨第三届数据警务技术专业人才培养研讨会在江西警察学院举行[1] - 会议围绕生成式人工智能安全、关键信息基础设施防护与数据警务技术人才培养等前沿话题展开深入交流[1] - 会议由公安部第三研究所、江西警察学院、江苏警官学院、中国人民公安大学公安大数据战略研究中心联合主办[2] 人才培养与教育模式 - 江西警察学院网络安全学院已形成以“需求共生、过程共融、资源共建、成果共享”为特征的育人新模式[1] - 江西省公安厅网安总队希望打通“教育—训练—实战”闭环,推动形成“实战出题、校局共答、成果反哺”的良性互动[1] - 行业致力于培养更多“懂技术、精业务、善研判、能创新”的复合型网安人才[1] 学术研究与技术发展 - 公安部第三研究所《信息网络安全》杂志社将持续打造“平台型”学术生态,以实现研以致用、用以促研[1] - 上海交通大学网络空间安全学院荣誉院长深入分析了生成式AI内生、共生及向外的安全挑战,并分享了生成式AI驱动的认知对抗新策略[1]
联合实验室是湾区AI生态“黏合剂”
南方都市报· 2025-09-16 07:09
行业技术创新与现状 - 大湾区生成式AI安全领域技术创新活跃,凭借区位优势与创新氛围吸引大量人才与资金投入,催生一系列前沿技术成果,在模型安全可信和量化评级方向取得显著进展 [3][4] - 产业布局已初步形成涵盖基础研发、技术应用、安全保障的较完整产业链,但存在重应用轻安全、强技术弱标准的情况有待改善 [4] - 联合实验室提出本地化安全评测系统,可根据大湾区AI企业实际业务场景、数据特点及技术架构进行针对性安全评测,及时发现隐患并提供改进建议 [4] 产业协同治理体系 - AI安全治理需政府、企业、高校、用户多方协同:政府可依托深圳前海与河套制度创新优势,明确安全底线与风险分级标准,开放监管科技接口并开展沙箱试点,设立负面清单与合规激励政策 [5] - 企业作为产业实践主体应将安全指标前置到需求评审、数据治理及模型训练全流程,开展第三方持续评测并参与行业安全标准制定 [5] - 高校需聚焦AI安全基础理论突破与关键技术攻关,加大科研投入并通过产学研合作将成果转化为实际生产力 [5] - 用户需提升AI安全使用意识,在体验过程中主动反馈安全问题以形成治理闭环 [6] 联合实验室角色与规划 - 联合实验室承担大湾区AI产业生态黏合剂和试验田双重角色,通过整合政产学研用多方力量促进技术从研发端到应用端高效衔接 [2][9] - 未来工作可从三方面发力:推动伦理治理与技术流程深度融合,将公平性、可追责、隐私保护等要求嵌入模型全流程;加快可信AI关键技术研发与应用,重点突破边缘端模型压缩安全防护等问题;面向国际合作参与生成式AI伦理与治理规则共建 [6] - 建议联合实验室强化安全技术开源共享与生态孵化能力,布局生成式AI安全人才培养与国际合作机制,探索建设AI安全事件响应与溯源中心 [8] 行业赋能前景 - 生成式人工智能将在大湾区各行业实现更深层次、更广范围赋能,从辅助工具转变为核心引擎,在金融、医疗、教育、制造、城市治理等领域推动业务流程重构与新质生产力形成 [8] - AI系统将更注重安全可控、责任明确与价值对齐,全面融入行业数字底座成为支撑产业升级的重要支柱 [8] - 联合实验室可结合大湾区高密度应用场景开展全链条算法探索和应用验证,借助粤港澳协同优势推进跨境金融安全测试、医疗场景验证及国际标准对接 [9]
企业 GenAI 的最大风险以及早期使用者的经验教训
36氪· 2025-08-11 08:20
生成式人工智能安全风险概述 - 生成式人工智能被列入企业路线图,但需避免发布不安全产品,模型应在沙盒化、受监控环境中运行[1] - 主要风险包括即时注入、代理权限滥用、RAG中毒、隐私/IP泄露、不安全输出处理等[1] - 企业现实加剧风险,如AI供应链不成熟、可观察性与合规性冲突、模型更新导致行为改变等[1] 生成式人工智能安全策略 - 采用零信任和纵深防御策略,限制输入、隔离工具并净化输出[2] - 部署前关键措施包括RBAC机制、DLP/PII扫描、版本锁定、防篡改日志等[2] - 若无法执行控制措施,需暂停发布[2] 生成式人工智能安全挑战 - 即时注入是新的"SQLi",攻击者可通过聊天、文档等覆盖模型指令或泄露数据[4] - 代理/工具滥用导致权限边界问题,需采用严格RBAC和人工审批[4] - RAG中毒引入新攻击面,需强化提取管道和来源签名[4] - 隐私泄露和IP溢出风险需通过DLP和显式扫描程序解决[4][5] - 模型和AI供应链风险需通过出处验证和行为审查应对[5] 企业行动计划 - 未来90天重点包括GenAI安全审计、高价值低风险用例试点、评估工具实施[6][7] - 避免常见错误如无防护措施部署、用例与业务不一致、跳过评估监督[8][9] - 需建立安全治理框架,包括威胁建模、访问控制、第三方风险审查[10] 数据与人才关键因素 - 39%首席数据官认为数据质量是GenAI应用最大障碍,需建立集中式知识数据库[11] - 技能缺口需通过混合团队和员工培训解决,变革管理至关重要[12] - 需定义新KPI并采用实验性思维方式,通过A/B测试衡量业务成果[13] 成熟度差异与路线图 - 高成熟度组织关注安全威胁,投资即时防火墙和模型卡片文档[14] - 低成熟度组织聚焦用例探索,建议从横向用例入手积累经验[14] - 成功路线图需从实验阶段逐步发展为稳定AI平台[15] 案例研究 - 摩根大通通过代码片段检查器和内部工具政策防止IP泄露[16] - 微软Bing Chat通过提示隔离和对抗样本训练降低越狱成功率[17] - Syntegra医疗AI采用差异隐私技术确保HIPAA合规[18] - Waymo通过模型注册表和沙盒执行保障供应链安全[19][20] 30-60-90天行动计划 - 0-30天:威胁建模、速效防护、访问控制审计、事件响应计划[22][23] - 31-60天:红队模拟、高级控制部署、演练培训、数据治理检查[24][25][26] - 61-90天:外部审计、指标优化、持续改进与治理委员会[27][28][29]