Workflow
人工智能风险
icon
搜索文档
速递|李飞飞团队发布41页AI监管报告,称全球AI安全法规应预判未来风险
Z Potentials· 2025-03-20 10:56
文章核心观点 - 加州政策团体发布中期报告,主张人工智能监管政策需预见尚未观察到的未来风险 [1][2] - 报告建议通过立法强制AI开发者提高透明度,并加强第三方验证和举报人保护 [2][3] - 报告提出的双管齐下策略获得人工智能政策辩论双方专家的广泛好评 [4] 报告背景与组成 - 报告由加州前沿人工智能模型联合政策工作组发布,该工作组由州长加文·纽森在否决SB 1047法案后组织成立 [1] - 报告共41页,由人工智能先驱李飞飞、加州大学伯克利分校计算机学院院长詹妮弗·查耶斯及卡内基国际和平基金会主席马里亚诺-弗洛伦蒂诺·库埃利亚尔共同撰写 [2] - 报告最终版本定于2025年6月发布 [4] 主要政策建议 - 建议制定法律以增强对OpenAI等前沿AI实验室所研发内容的透明度 [2] - 主张立法强制AI模型开发者公开其安全测试、数据获取实践及安全措施 [2] - 提倡提高第三方对这些指标及企业政策评估的标准,并加强对AI公司员工和承包商举报人的保护 [2] - 建议采取“信任但要验证”的双管齐下策略,为AI开发者提供报告途径,同时要求提交测试声明供第三方验证 [3] 对人工智能风险的评估 - 指出人工智能系统带来的新型风险可能需要立法干预 [2] - 关于人工智能在协助实施网络攻击、制造生物武器或引发其他极端威胁方面的潜力,目前证据尚不充分 [2] - 主张人工智能政策不仅应应对当前风险,还应预见在缺乏充分防护措施下可能出现的未来后果 [2] - 强调如果对最极端风险的猜测正确,当前在尖端人工智能领域不作为的代价将极其高昂 [3] 业界反应与影响 - 报告发布前经过了不同意识形态领域的行业利益相关者审阅,包括图灵奖得主约书亚·本吉奥和Databricks联合创始人伊昂·斯托伊卡 [2] - 报告受到人工智能政策制定辩论双方专家的广泛好评 [4] - 乔治梅森大学研究员迪恩·鲍尔认为报告是加州人工智能安全监管的充满希望的进展 [4] - 加州州参议员斯科特·维纳认为报告建立在2024年立法机构开始的人工智能治理紧急对话基础之上 [4] - 报告与SB 1047法案及后续SB 53法案的多个要点相吻合,例如要求AI模型开发者报告安全测试结果 [4]