行业动态:保险公司调整AI相关保险策略 - 多家主要保险公司(AIG、Great American、WR Berkley)正寻求在保险条款中引入对人工智能风险的明确除外责任,特别是涉及智能体和语言模型的使用[1] - 调整策略的直接原因是与AI相关的潜在损失可能达到数亿美元甚至更高[1] - 行业担忧的核心并非单个索赔的严重性,而在于可能出现的相互关联、大规模且同时发生的损失,这种损失无法通过共担机制分散[1] - 行业无法承受的是AI提供商的一个错误导致1000或10000次损失同时发生的情况[2] 系统性风险特征 - 系统性风险的脆弱性并非由机构的绝对规模决定,而是由其互连结构决定,金融系统呈现出“稳健却脆弱”的动态特性[3] - 系统可能对大多数冲击表现出稳健性,但一旦问题发生,影响可能是灾难性的[4] - 初始错误一旦触及网络的“脆弱集群”,局部错误就可能演变为全球性灾难,网络互连程度越高,错误传播速度越快[4] - 连接性或资本化的微小变化可能使整个系统从稳定状态转变为临界状态,发生真正的“相变”[4] AI系统的传染性风险机制 - 生成式AI具备高度传染性系统的所有特征,当AI提供商部署有缺陷的更新、在模型参数中引入错误或遭受网络安全漏洞时,受影响的不是孤立用户,而是依赖同一基础设施的数千用户[5] - 每个客户不仅依赖于自身的使用,还依赖于全局模型的完整性,即使是最小的修改也会在所有用户中瞬间复制相同的行为[5] - 这种传播不是缓慢或渐进的,而是即时、同步和同质的,这正是保险公司现在恐惧的快速同步传染[5] 保险可保性的根本挑战 - 保险可保性历史上依赖于一个基本条件:大数法则,风险事件必须是独立的或充分异质的,以便损失在统计上能够相互抵消[6] - 网络风险已经不符合这一条件,网络损失高度相互关联,并具有严重的信息不对称特征[7] - 生成式AI强化了这种结构,创造了一个错误不仅频繁而且可能完全相同且同时发生的环境[7] - 当损失变得相关时,共担机制就会机械性地崩溃,保险设计上无法吸收那些结构上倾向于聚合的风险[8] 复杂系统与不可避免的故障 - 在复杂系统中,故障不是异常,而是不可避免的,意外源于交互,小错误在通过紧密耦合的网络传播时会放大[9] - 在恶劣环境中,错误信号是模糊的,交互是复杂的,系统变得容易受到意外事件的影响[10] - 生成式AI模型完全符合这种描述:结构不透明、行为非确定性、依赖少数全球提供商以及使用之间缺乏分离,创造了一个局部故障会变成系统性的系统[10] AI对保险业系统性风险的重新定义 - 传统上,由于互联性远低于银行业,保险业被认为不易受系统性风险影响,但这一假设依赖于一个隐藏前提:被保险的风险本身必须保持独立[11] - 随着AI的出现,这一前提崩溃了,首次出现了一种被保险的风险(网络风险、错误与遗漏、软件相关损害)在结构上相互关联[11] - 单个提供商、单个模型、单个更新或单个漏洞可能引发数千次同时发生的损失,互联性不再是保险市场的属性,而是风险本身的属性[11] - AI引入了一种聚合的、相关的、不可分散的风险形式,它不再是一种波动性风险,而是一种结构上同步的风险[12] AI驱动系统性风险的具体场景 - 设想一个在金融部门广泛使用的大型语言模型发生故障更新:一个部署在两千家银行的模型同时误解一项监管规则,后果(不合规、制裁、诉讼、客户撤资、集体诉讼)将是即时且完全同步的[13] - 自主法律代理可能产生系统性幻觉,生成虚假的法律引文或有缺陷的推理,如果在数百家公司部署,该错误将立即成为集体性错误[13] - 当模型产生看似合理但不透明的信号时,人类和机器都倾向于赋予其过度意义,微弱的信号可能被误解为真实的行为转变,而这可能仅仅是统计假象、数据集偏差或潜在漂移[14] - 这些误解可能创造反馈循环,将噪声变成真实冲击:紧急决策、定价变更、对依赖模型的调整,这被描述为自我实现的预言[15] 特斯拉案例研究 - 特斯拉案例揭示了关键功能极度集中的组织,任何事件都可能全系统传播,单个管理员拥有全局访问权限,数千名员工拥有提升的特权,尽管存在大规模数据提取,但举报人描述缺乏监控[16] - 数据流扩展到包括客户、商业伙伴以及与特斯拉有联系的广泛个人和公司,特斯拉不仅聚合自身数据,还聚合来自客户、合作伙伴、政府、分包商和监管机构的数据,创造了与2008年前金融网络极其相似的依赖结构[17] - 当整个车队依赖一个同时更新的单一软件模型时,一个缺陷可能产生大规模的相关冲击,这正是保险公司现在对生成式AI系统恐惧的场景[18] - 特斯拉作为一个具体例子,展示了软件同质性创造了如此大的聚合风险,以至于单个错误可能成为一个“大的系统性事件”[19] AI责任与法律风险 - “AI责任”问题是当今探索最少且最具爆炸性的问题之一,实践中无人知晓如果出现问题谁应负责[20] - AI提供商的合同包括严格的责任限制、性能保证排除以及将几乎所有风险转移给用户的条款,由于需求几乎无弹性,提供商可以单方面强加其条款,造成显著的合同不对称[20] - 在受监管的行业,公司被要求控制其模型,但使用的模型是不透明、外部且未经审计的,这造成了深刻的矛盾:公司对其没有实质控制权的工具承担法律责任[21][22] - 这种情况造成了三重缺口:监管缺口、合同缺口和保险缺口,结果是产生了一种法律系统性风险,其特征是责任分散、依赖集中以及风险分配极度低效[23]
Insurers and AI, a systemic risk