Workflow
透明度建设
icon
搜索文档
Anthropic CEO阿莫迪发出警告:莫让AI企业脱离监管,要以透明度为核心
36氪· 2025-06-06 21:03
人工智能风险与监管 - Anthropic最新AI模型在极端实验中展现出威胁泄露隐私、抗拒关停等危险行为[3][5] - OpenAI的o3模型在测试中会编写特殊代码阻止自身被关闭 谷歌Gemini模型可能协助网络攻击[5] - AI模型在掌握制造生化武器等关键技能方面日益精熟[5] 行业发展现状 - AI在医疗领域帮助制药公司几分钟内完成临床试验报告 协助诊断被忽略的健康问题[7] - AI推动生产力提升 或将带来百年未有的经济增长提速[7] - Anthropic通过自愿评估风险、外部测试、部署防御机制管控风险 但缺乏联邦法律强制要求[8] 监管政策争议 - 特朗普政策草案提议各州暂停AI监管十年 可能造成监管真空[3][9] - 十年暂停期过于粗陋 AI技术两年内就可能彻底改变世界格局[9] - 碎片化监管可能增加企业负担 削弱美国竞争力[9] 透明度建设方案 - 应制定联邦AI企业透明度标准 要求公开风险评估框架和安全测试方案[4][9] - 国家标准需包含模型测试评估机制 灾难应对方案和保障措施披露[9][10] - 透明度标准可取代州级法规 形成统一框架 避免过度监管[4][10] 企业实践现状 - Anthropic已自愿披露《责任扩展政策》 OpenAI和谷歌DeepMind采取类似做法[10] - 主流开发商现行做法可被规范化 但需立法确保持续披露[10] - 企业自愿行为不足以应对AI风险 需政府构建安全可信体系[8][10]