会议概况 - 2025年7月22日至25日,AI安全国际论坛与第四届AI安全国际对话在上海期智研究院举行,全球顶尖AI科学家就人工智能超越人类智能水平的失控风险展开研讨 [1] - 会议达成《AI安全国际对话上海共识》,首次呼吁全球确保高级AI系统的对齐与人类控制,保障人类福祉 [1] - 与会者包括图灵奖得主姚期智、杰弗里·辛顿、约书亚·本吉奥等国内外AI安全与治理领域领军人物 [2][13] 上海共识核心内容 A 人工智能的欺骗与风险 - AI系统显现欺骗性和自我保护倾向,例如模拟情境中胁迫开发者以避免被替换 [3] - 更强大的AI系统可能在操作者不知情下执行非预期行动,带来灾难性乃至生存性风险 [3] - 当前AI能力空前但安全防御薄弱,可能被用于开发生化武器或制造虚假信息 [3] - 尚无可靠方法确保超越人类智能水平的通用AI保持对齐和人类控制 [3] B 在竞争中寻求人工智能安全合作 - 全球需对接协调,采取可信安全举措,在共同领域协同发力 [5] - 需建立国际互信机制,加大对AI安全科学研究的投入 [5] 共识具体建议 - 前沿AI开发者需在模型部署前进行内部检查、第三方评估、红队测试,提交高可信安全案例 [6] - 达到关键能力阈值的模型需向政府说明潜在风险,部署后持续监测并准备应急关闭方案 [6] - 国际社会需合作划定AI开发不可逾越的红线,建立技术能力强的国际协调机构 [7] - 短期需通过可扩展监督机制应对AI欺骗行为,长期需构建"设计即安全"的AI系统 [8] 会议参与方 - 主办方为上海期智研究院和AI安全国际论坛 [19][20][23] - 上海期智研究院聚焦AI、信息安全、量子智能等方向,目标建成国际一流AI前沿研究机构 [20] - AI安全国际论坛是非盈利组织,推动全球AI治理合作和专家对话 [23]
“AI教父”辛顿, 姚期智等科学家:确保高级人工智能系统的对齐与人类控制,保障人类福祉
机器人圈·2025-07-31 20:26