Workflow
可信人工智能治理白皮书
安永·2025-01-13 12:03

行业投资评级 - 报告未明确给出具体的行业投资评级 [1][2][3] 核心观点 - 人工智能技术正在重塑社会格局,带来生产效率的提升和复杂社会问题的解决,但也面临伦理、法律和社会问题的挑战 [3] - 可信人工智能治理是确保AI技术健康发展的关键,涉及算法透明度、数据安全、伦理道德等方面的挑战 [4] - 企业需要构建AI治理体系,确保AI技术的可信性,并通过行业实践案例提供具体应用视角 [4][5] 全球人工智能发展与监管体系 - 全球人工智能市场预计从2024年的6211.9亿美元增长到2032年的27404.6亿美元 [10] - 欧盟《人工智能法案》是全球首部全面的人工智能法规,将AI系统分为四级风险,禁止高风险系统进入市场 [11] - 美国采取行业特定的监管方法,提出《2023年算法问责法案》和《关于安全、可靠和可信赖地开发和使用人工智能的行政命令》 [13][14] - 中国尚未出台专门的人工智能立法,但已通过《网络安全法》《数据安全法》等构建了初步的法律框架 [17] 人工智能的可信原则 - G20提出的人工智能可信原则包括包容性增长、尊重法治和人权、透明度和可解释性、稳健性和安全性、问责制 [24][25][26] - 欧盟提出的人工智能可信原则包括人类能动性与监督、技术稳健性与安全性、隐私与数据治理、透明度、多样性与非歧视、社会和环境福祉、问责制 [28] - 安永强调可信AI应具备问责性、合规性、可解释性、公平性等原则 [30] 可信人工智能的关键问题 - 算法黑箱与信息茧房问题导致用户难以理解推荐逻辑,影响用户体验 [35] - 算法偏见问题在招聘、司法、金融等领域可能导致不公平的决策 [38] - 数据安全问题涉及底层数据源的合法性、数据泄露风险以及跨境数据传输的合规性 [39][42][43] - 内生安全问题包括基础设施安全风险、数据安全风险、模型安全风险和应用服务安全风险 [44][45][48][49] - 科技伦理问题涉及知情权、公平交易权、未成年人保护等,企业需遵守《科技伦理审查办法》 [50][51] 企业级AI的合规要求 - 企业需具备互联网信息服务的基础资质和特殊资质,如ICP许可证、EDI许可证等 [54][55] - 算法合规要求包括算法备案、算法评估和算法透明性要求,企业需履行相关义务 [59][61][64] - 内容合规要求包括生成内容审核义务、内容标识义务和投诉举报机制 [66][69][70] 人工智能风险治理 - 风险治理架构为企业提供决策支持,推动创新并维护市场公平竞争 [73][75][77] - 生命周期风险治理涵盖从数据收集到模型退役的全过程,确保AI系统的可信性和合规性 [80][82][84][87] - 审慎评估及监控帮助企业及时发现并应对潜在风险,确保AI系统的稳定运行 [87][88]