生成式AI在金融应用中的风险 - 生成式AI面临模型幻觉风险,金融领域对数据精准性、专业性、一致性要求较高,模型幻觉可能导致部分领域无法应用 [3] - 算法黑箱问题可能无法满足穿透式监管要求,不利于风险管理溯源和责任认定 [3] - AI大模型应用可能放大传统风险,如顺周期风险,金融的顺周期属性加强可能引发系统性金融风险 [3] - 模型、算法、训练数据相似可能导致行为决策同质化,引发羊群效应 [3] - 中小金融机构对大型科技公司依赖加强,少数科技公司演变为金融基础设施可能放大风险 [3] AI金融治理闭环构建 - 治理闭环涉及六大主体:金融机构、金融消费者、科技公司、行业治理组织、监管部门、金融生态系统从业人员 [4] - 金融机构需审慎评估业务场景与技术适配性,避免盲目应用复杂技术导致风险 [4] - 金融机构应减少对大型科技公司依赖,开发个性化解决方案以避免羊群效应 [4] - 人机协同需纳入内部风控合规机制,关键业务流程需人工干预以增加可控性 [4][5] - 监管部门需包容审慎,坚持技术中性理念,深化金融科技创新监管工具应用 [5] - 监管部门应实施分级分类管理,基于业务场景风险特征设定差异化监管措施 [5] - 科技公司需严控伦理风险和责任风险,确保产品模型安全可控 [6] - 行业治理组织应发挥制定治理倡议、公约及行业标准的作用 [6] 宏观审慎监管体系构建 - AI驱动的金融创新可能带来系统性风险新型形态,需加强跨领域风险监测 [7][8] - 宏观审慎政策需关注逆周期和跨机构、跨市场风险传染两个维度 [7] - 对系统重要性金融机构可能需附加额外监管要求,如个性化模型压力测试、更高资本充足率门槛 [7] - AI金融基础设施需加强监管 [8] - 新一代AI技术使跨市场、跨机构、跨产品联动更易实现,跨领域风险可能更严重 [8] - 需加强监管部门信息共享、风险情报交互、监管协作及预案制定 [8] - 需提升系统性金融风险监测预警能力,防范AI大模型带来的市场共振 [8]
2025五道口金融论坛|莫万贵谈AI风险,金融机构过度依赖几家科技公司,要避免羊群效应
北京商报·2025-05-18 18:20