AI开始失控了吗?100名科学家联手发布全球首个AI安全共识
36氪·2025-05-13 17:55
围绕人工智能(AI)的风险与危害展开的讨论,往往集中在政府能够或应该采取的行动。然而,AI研究人员自身所做出的选择也同样重要。 本周,在新加坡,100多名来自世界各地的科学家就研究人员应如何使AI更加"值得信赖、可靠和安全"提出了指导方针。 这些建议提出之际,诸如OpenAI和谷歌等生成式AI领域的巨头对其AI模型的信息披露越来越少,以至于公众对这些模型的工作原理了解得越来越少。 这些指导方针源于上个月在新加坡的学者们之间的交流,此次交流与AI领域最负盛名的会议之一——国际表征学习大会同期进行,这也是亚洲首次举办 大型AI会议。 一份名为《关于全球AI安全研究重点的新加坡共识》的文件发布在了新加坡AI会议的网站上。 在协助起草《新加坡共识》的优秀人士中,有加拿大AI研究院MILA的创始人Yoshua Bengio;加州大学伯克利分校的计算机科学教授、"以人为本"的AI领 域专家Stuart Russell;总部位于英国的智库"生命未来研究所"的负责人Max Tegmark;以及来自麻省理工学院、谷歌DeepMind部门、Microsoft、新加坡国 立大学、中国清华大学和美国国家科学院等的代表。 为了阐明研究 ...