Workflow
国际清算银行
icon
搜索文档
临时文件管理解释:监管机构如何应对人工智能可解释性问题
国际清算银行· 2025-09-10 16:06
行业投资评级 - 报告未明确给出具体的行业投资评级 [2][10] 核心观点 - 金融机构越来越多地采用人工智能(AI)正在改变其运营、风险管理和客户互动方式 [7] - 复杂AI模型的有限可解释性对金融机构和监管机构构成了重大挑战和问题 [7] - 可解释性对于透明度、问责制、监管合规性和消费者信任至关重要 [7] - 深度学习和大语言模型(LLM)等复杂AI模型通常难以解释 [7] - 现有的可解释性技术存在显著局限性,包括不准确性、不稳定性以及对误导性解释的易感性 [7] - 有限的模型可解释性使得管理模型风险具有挑战性 [8] - 国际标准制定机构已发布模型风险管理(MRM)要求,但只有少数国家金融监管机构发布了具体的指导 [8] - 现有指南可能并未针对先进的AI模型进行制定,并未明确提及模型可解释性的概念 [8] - 随着金融机构将人工智能模型应用于其关键业务领域,金融监管机构有必要寻求在人工智能背景下相关健全的模型风险管理与模型输出(MRM)实践 [9] - 可能需要在可解释性和模型性能之间做出权衡,只要风险得到适当评估和有效管理 [9] - 允许使用可解释性有限但性能优越的复杂人工智能模型,或许能够使金融机构更好地管理风险并提升客户体验,前提是引入了充分的保护措施 [9] - 对于监管资本应用场景,复杂人工智能模型可能被限制在特定的风险类别和敞口范围内,或受到输出下限的约束 [9] - 监管机构还必须投入资源提升员工评估人工智能模型的能力 [9] 目录总结 第一部分——引言 - 人工智能(AI)模型正越来越多地应用于金融机构的所有业务活动,从内部运营到面向客户的业务 [11] - 金融机构在使用人工智能进行关键业务应用方面似乎比较谨慎,尤其是那些涉及客户互动的应用 [11] - 预计人工智能的使用将变得更加普遍,包括在关键业务领域 [11] - 一个关键的监管/监督关注点是人工智能模型的可解释性,特别是对于关键业务活动 [12] - 可解释性没有普遍公认的定义,但一些组织从各自的视角定义了这个概念 [12] - 某些AI模型结果的缺乏可解释性可能引发审慎关切 [13] - 缺乏可解释性也可能使监管机构难以确定金融机构在模型使用方面是否符合现有的监管要求 [13] - 可解释性在使用AI模型计算监管资本方面也同样重要 [14] - 缺乏人工智能模型可解释性可能会潜在地导致系统性风险加剧 [15] - 可解释的人工智能模型输出从消费者保护的角度也很重要,以避免歧视性决策 [16] - 从金融机构的角度来看,缺乏可解释性构成了采用和部署AI模型的障碍 [17] - 监管者通常期望企业能够解释用于关键活动或辅助决策的人工智能模型 [18] - 现存在关于模型风险管理(MRM)的国际标准和区域监管要求,其中一些已明确涵盖或隐含提及可解释性问题 [19] 第二部分——MRM和可解释性 - 全球标准制定机构(SSBs)已经对金融机构使用模型提出了一些高阶要求 [23] - 巴塞尔核心原则(BCPs)规定使用风险模型的银行必须遵守模型使用的监管标准,包括对模型进行独立验证和测试 [23] - 保险核心原则(ICPs)涉及风险测量的模型使用,包括用于测量技术准备金 [23] - 巴塞尔银行监管委员会(BCBS)也存在其他与模型使用相关的重要文件 [23] - SSBs还就监管资本目的下模型的使用发布了更详细的要求 [23] - 最近,IAIS(2025)阐述了现有ICPs在保险公司使用人工智能的背景下的应用方式 [24] - 在国家层面,只有少数几家金融监管机构制定了模型风险(MRM)指导方针 [26] - MRM指南具有共同要素,涵盖治理和监督、模型开发与文档、模型验证与实施、监控与维护 [30] - 所有MRM指南都要求评估模型风险,以便采用基于风险的方法来应用MRM要求 [30] - 所有MRM指南都涵盖使用第三方模型时风险的管理 [30] - 虽然模型可解释性的概念在许多现有的MRM指南中并未明确提及,但它隐含于这些指南中包含的许多条款之中 [31] - 评估模型风险性的要求,以便能够基于风险应用MRM要求,加剧了实施挑战 [35] - 使用第三方模型也加剧了缺乏可解释性所带来的挑战 [36] - MRM中一个现有指南未明确涵盖的方面与公司对受模型结果影响的客户的责任有关 [37] 第三部分——在AI背景下执行可解释性要求所面临的挑战 - 企业可能会发现,满足现有的关于人工智能模型可解释性的监管要求是一项挑战 [40] - 深度神经网络等高级人工智能模型由于其众多参数和过度参数化而难以解释 [40] - 构建大型语言模型(LLM)使其功能比其他人工智能模型更为复杂 [40] - 在大多数政策讨论中,使用"可解释性"一词,而在大多数学术文献中,则使用"可解释性"一词 [41] - 可解释性是指模型的输出能在多大程度上被解释给人类 [42] - 可解释性是指人工智能模型的内部工作机制可以被人类理解的程度 [42] - 这些概念是相互关联的 [42] - 某些AI模型是固有的可解释的,例如决策树和广义加性模型 [43] - 存在一些黑盒模型,由于其复杂性、非线性和大量参数的使用,本质上是不透明的 [43] - 为了提高这些模型的可解释性,可以使用事后技术来分析黑盒模型在做出预测/已交付输出 [48] - 后验技术可以根据全局和局部可解释性进一步细分 [48] - 事后技术包括SHapley Additive exPlanations (SHAP)方法、本地可解释模型无关解释(LIME)方法和反事实解释 [52] - 这些可解释性技术并非相互排斥,每种方法都有其利弊 [54] - 可解释性技术存在局限性,包括不准确、不稳定性、无法泛化、不存在普遍接受的指标和误导性解释 [55] - 新的可解释性技术正在进行开发,并改进现有方法 [55] - 一个总体的MRM要求是,人工智能模型必须就其如何得出结果而言是可解释的 [56] - 可解释性要求可能需要根据目标受众进行调整,例如高级管理层、消费者或监管机构 [58] - 一些MRM要求规定了公司需要遵循的模型变更流程;然而,在人工智能模型方面,构成变更的内容尚不明确 [59] - 使用第三方提供的AI模型在遵守MRM要求方面带来了多重挑战 [59] - 不同类型的AI模型在遵循MRM要求时可能会呈现不同级别的挑战 [59] - 缺乏既有的或全球公认的可解释性方法,特别是对于新型人工智能模型,是满足MRM指南的障碍 [60] - 大型语言模型(LLM)正越来越多地被金融机构应用于许多活动 [62] - 解释和理解大型语言模型是一项极其复杂的任务 [63] - 随着更多公司开发基于大型语言模型(LLM)的人工智能应用,如果它们无法充分解释应用的工作原理,可能会成为一个监管问题 [65] 第四部分——MRM指南的潜在调整 - 当局可能需要审查现有的MRM指南,并确定是否需要制定新指南或对现有指南进行调整 [67] - 随着金融机构在不同职能和业务领域扩大对人工智能模型的使用,金融当局可能需要就模型在监管资本目的之外的使用提供指导 [67] - 原则上,若AI模型用于关键活动中进行决策,MRM指南可能要求金融机构使用本质上可解释的AI模型或者至少采取足够针对黑盒模型的解释性技术 [68] - 对于复杂模型,仅使用一种现有的解释性方法可能无法完全提供信息 [69] - MRM指南可能需要要求金融机构为相关用例建立可接受的解释性标准 [71] - 可以考虑根据人工智能用例的不同风险程度来定制监管可解释性要求 [72] - 应该明确认识到可解释性和模型性能之间可能的权衡 [74] - 承认这种权衡的一个更具影响力的决定是允许使用那些不完全符合既定可解释性标准但性能明确且显著优于更传统和简单模型的复杂模型 [75] - 可解释性豁免的引入应仅影响可解释性差距有限的人工智能模型,并考虑此类模型使用的风险程度 [75] - 解决用于监管目的的人工智能模型的低可解释性问题更加棘手 [76] - 一种折衷方案可能是,允许在一定限度内使用表现良好且复杂的人工智能模型来计算拨备、最低资本或其他监管义务 [76] 第五部分——结论 - 人工智能的应用预计将在金融机构的业务活动中更加普及 [78] - 某些人工智能模型的缺乏可解释性是金融监管机构的一个关键担忧 [79] - 随着金融机构在关键业务领域推出更复杂的AI模型,这将影响消费者、监管合规和系统性风险 [79] - 金融监管机构寻求促进金融机构中考虑人工智能发展的稳健的MRM实践是至关重要的 [80] - 监管机构可以通过发布MRM指南来实现这一目标 [80] - 在人工智能可解释性的背景下,MRM指南可以包括要求金融机构采用可解释性技术来解释黑盒模型,根据模型的潜在影响和风险性建立可解释性标准,并要求补充性保护措施 [81] - 可能需要认识到可解释性与模型性能之间的权衡,只要风险得到适当评估和有效管理 [81] - 当局也需要提升其员工技能,以便能够理解企业提交的可解释性提交 [82]
生成式人工智能在中央银行的应用
国际清算银行· 2025-03-11 14:20
报告行业投资评级 未提及 报告的核心观点 - 生成式AI有潜力显著提高全球生产力,预计每年可带来2.6 - 4.4万亿美元的生产力提升,或使产出在采用后15年内增长15 - 20% [1] - AI应用将在现代中央银行及其他领域普及,但也存在可识别和难识别的风险,需在治理框架、劳动力准备和跨机构合作三方面做好应对 [1][12][18] 根据相关目录分别进行总结 研讨会情况 - 研讨会旨在展示项目、分享专业知识并减少对外部服务提供商的依赖,2019 - 2025年已举办四届,主题围绕数据科学和生成式AI在中央银行的应用 [1][2] 生成式AI的潜力与不确定性 - 生成式AI预计每年可带来2.6 - 4.4万亿美元的全球生产力提升,或使产出在采用后15年内增长15 - 20%,超40%的全球企业受访者称最先进的生成式AI计划投资回报率在11 - 30% [1] - 因现象快速演变,相关估计存在不确定性,如DeepSeek推出“R1”引发对AI硬件和能源需求及美国科技行业领导力的质疑 [5] - 企业采用AI的速度不确定但增长迅速,2024年初65%的国际企业受访者表示组织定期使用生成式AI,近2倍于2023年,采用率因行业和企业规模而异,不同层级对其看法有差异 [6] 生成式AI的发展趋势 - 生成式AI在商业世界和消费者领域迅速扩张,未来增长不可避免,全球每年创建的数据量预计将从2024年的149泽字节增至2028年的超394泽字节 [7] AI在中央银行的应用 - AI可提高中央银行数据分析、实时经济监测和决策的速度、准确性和深度,在预测、监管合规、金融监管、法律分析和金融稳定监测等方面有应用 [9][11] AI带来的风险 - 可识别风险包括AI模型可解释性问题、数据偏差强化、幻觉和错误信息、影响金融稳定及被用于犯罪等 [12] - 难识别风险包括影响用户认知过程、减少人类监督、降低用户记忆信息的动力等 [13][17] 应对建议 - 优先制定健全的AI治理框架,宏观层面需基于不同发展情景做好政策准备,企业层面要重视数据管理 [19][20] - 劳动力要为AI采用做好准备,中央银行需调整人才结构,加强员工培训、再技能和提升技能 [21][23] - 鼓励当局间的跨机构合作,特别是跨境数据共享,以应对AI监管边界模糊的问题 [24][25]
2024生成式AI的崛起对美国劳动力市场的影响分析报告渗透度替代效应及对不平等状况
国际清算银行· 2025-01-03 09:35
行业投资评级 - 报告未明确给出行业投资评级 但通过AI对不同技能水平职业的替代潜力分析 可推断高认知技能行业(如法律、工程)在AI能力中等时具有较高投资价值[34][46][48] - 办公室行政支持行业在AI能力3.0时自动化潜力接近40% 显示较高风险[34][48] 核心观点 - AI对劳动力市场影响呈现U型曲线:低AI能力(2.0)时7%技能暴露且分布均匀 中等能力(3.0)时平均18.4%技能暴露 高能力(4.0)时达43.3%且高收入群体45%技能暴露[7][34][43] - 计算机交互时间是AI替代的关键限制因素 法律/工程等行业受"技能水平限制" 生产/运输等行业受"技术限制"[33][48] - 核心技能与辅助技能分化明显:AI能力3.0时低收入群体核心技能暴露度与辅助技能相当(约20%) 而高收入群体核心技能仅暴露5%但辅助技能达27%[64][94] 研究方法 - 构建AI可自动化份额指数(AISA) 包含两大假设:仅计算机交互可自动化、技能难度需匹配AI能力[20][28][32] - 使用O*NET数据库711种职业数据 通过GPT-4分析19,000项任务描述 量化计算机/社交/体力劳动时间占比[21][24] - 技能分类标准:核心技能为重要性前33%的认知技能(平均每职业11项) 辅助技能为剩余67%[87][89] 工资分布影响 - 高AI能力(4.0)时出现明显分化:工资最低四分位暴露26%技能 最高四分位暴露45%技能[43][84] - 互补效应峰值呈现梯度特征:低收入群体峰值15%(AI能力2.5) 高收入群体峰值50%(AI能力3.7)[97] - 法律/管理等行业在AI能力4.0时辅助技能暴露62% 但核心技能仅20% 显示强互补潜力[64][71] 横向对比研究 - 当前AI能力相当于κAI=3.2-3.6 与Eloundou(2023)30%暴露度、Hatzius(2023)25%暴露度估算匹配[40][80] - 采用Felten(2021)的AIOE指数验证 与计算机交互时间变量相关性达86.3%[36][219] - 相比Frey&Osborne(2017)47%自动化预测 本模型在仅考虑计算机交互时上限为43.3%[54][80] 行业差异特征 - "技能水平受限"行业(如工程/法律):高计算机交互时间(60%+)但高技能难度 需AI能力≥4.0才有显著暴露[33][50] - "技术受限"行业(如生产/运输):低计算机交互时间(20%-30%)但技能简单 低AI能力即可达暴露上限[48][50] - 行政支持行业特殊:计算机交互60%+且技能简单 在AI能力3.0时AISA指数已达40%[34][48] 历史技术对比 - 传统自动化主要影响低技能体力劳动 而AI直接挑战认知任务 高收入职业面临重构[9][169] - 计算机化(1980s)导致中等工资职业替代 当前AI对高工资职业辅助任务形成互补[9][200] - 日本机器人应用显示自动化可通过成本节约扩大经济产出 但AI对劳动力结构影响更复杂[8][170]
2024年Nexus:实现即时跨境支付报告
国际清算银行· 2024-07-25 14:00
&> BIS Innovation Hub July 2024 A Project Nexus Enabling instant cross-border payments Project Nexus Enabling instant cross-border payments BANK NEGARA MALAYSIA BANK OF THAILAND This publication is available at bis.org Publication date: July 2024 © Bank for International Settlements 2024. All rights reserved. Use of this publication is subject to the terms and conditions of use published on bis.org. Brief excerpts may be reproduced or translated provided the source is stated. BIS Innovation Hub Project Nexu ...