研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准

主要AI公司安全状况评估 - 未来生命研究所发布AI安全指数,指出Anthropic、OpenAI、xAI和Meta等主要AI公司的安全措施"远未达到新兴的全球标准" [1][2][6][7] - 独立专家评估显示,各企业一心追逐超级智能,但未能建立可靠方案来管控此类高阶系统 [1][6] AI行业监管与游说现状 - 美国的AI企业比餐馆还少受监管,并持续游说抵制强制性的安全规范 [5][9] - 外界对AI协助黑客入侵以及导致心理失控和自残的事件议论不断 [5][9] AI行业研发投入与竞赛 - 主要科技企业正为机器学习技术的扩展和升级投入数千亿美元 [5][9] - 今年10月,杰弗里・辛顿与约书亚・本吉奥等多位科学家呼吁暂停超级智能研发,直至公众提出明确诉求且科研界找到确保安全的路径 [5][10] 研究背景与机构信息 - 研究背景是社会在多起自杀和自残事件被追溯到AI聊天机器人后,对可能超越人类的系统带来的冲击愈发担忧 [5][9] - 未来生命研究所是一家成立于2014年的非营利机构,长期呼吁关注智能机器对人类潜在的威胁,早期曾获得特斯拉CEO马斯克的支持 [5][9]