Workflow
人工智能行业:中国和英国的专家如何看待AI风险和合作(英译中)
ITIF·2024-08-13 12:13

AI 安全的首要任务 - 专家提到了三类风险:安全风险、社会风险和存在风险 [18] - 英国和中国专家都强调了与不安全 AI 相关的几个风险,如 AI 系统不准确、不可靠或在意外条件下失败,以及对人类与人工智能交互的安全性的担忧 [18][19] - 英国专家更关注社会风险,如与儿童一起使用人工智能的伦理影响,以及人工智能取代人类工人的潜力 [20] - 中国专家则更关注先进的人工智能系统和人工智能武器化的潜在生存威胁 [20] 开源 AI 的好处和风险 - 所有受访专家都认为开源 AI 模型具有显著的优势,如可以进行更彻底的检查、促进开源社区内的协作 [24][25] - 专家们一致认为恶意使用是他们最关心的风险,也提出了对数据隐私侵犯的担忧 [26][27][28] - 防止不同的攻击是一个复杂的挑战,可能需要持续监测和定期更新安全对策 [30] - 缺乏标准来指导开源人工智能的使用、开发和管理,增加了滥用的风险 [30] AI 法规 - 英国政府在 2023 年 8 月的白皮书中概述了其对 "AI 监管的创新方法" 的愿景,中国正在考虑 "模型人工智能法 (MAIL) v.2.0" [31] - 专家认为两国的监管方法总体上与各自的国内优先事项相吻合 [32][33][34] - 提高 AI 透明度是一个挑战,但可能通过第三方组织的评估和报告来帮助公众理解 [35] - 一些专家主张加强监管以指导 AI 产品的开发,另一些则敦促监管机构提高评估和监控 AI 开发和使用风险的能力 [37][38][39][40] AI 的国际合作 - 地缘政治不确定性、有限的专家参与和文化差异被认为是阻碍国际合作的主要障碍 [41][44][45][46][49][50] - 一些英国专家认为第三国应该带头推动国际合作,而中国专家则倾向于由联合国或其他全球机构牵头 [51][52][53]