Workflow
Meta says it may stop development of AI systems it deems too risky

文章核心观点 Meta发布Frontier AI Framework,识别出两类高风险AI系统并制定应对措施,该框架是对其“开放”开发策略批评的回应,旨在平衡AI技术的利弊与风险 [1][2][7] Meta对AI系统风险的定义与分类 - 公司认为“高风险”和“关键风险”系统能协助网络安全、化学和生物攻击,关键风险系统会导致“灾难性后果”且无法缓解,高风险系统使攻击更易实施但可靠性不如关键风险系统 [2][3] - 可能的攻击示例包括“对采用最佳实践保护的企业级环境进行自动化端到端破坏”和“高影响力生物武器的扩散” [4] 系统风险的评估方式 - 公司对系统风险的分类并非基于单一实证测试,而是参考内外部研究人员的意见并由“高级决策者”审查,因其认为评估科学不够完善,无法提供确定系统风险的定量指标 [5] 不同风险系统的应对措施 - 若判定为高风险系统,公司将限制内部访问,在实施缓解措施将风险降至中等水平前不会发布 [6] - 若判定为关键风险系统,公司将实施安全保护措施防止系统外泄,并停止开发直至系统危险性降低 [6] 开放策略的利弊及对比 - 公司的开放发布策略有利有弊,Llama模型有数亿次下载量,但也被美国对手用于开发防御聊天机器人 [8] - 公司发布Frontier AI Framework可能是为了对比其开放AI策略与DeepSeek的不同,后者系统开放但缺乏安全保障,易产生有害输出 [9] 公司的理念 - 公司认为在开发和部署先进AI时兼顾利弊和风险,能在为社会带来技术益处的同时保持适当风险水平 [10]