Workflow
马斯克炮轰Claude“邪恶透顶” 研究揭示AI存在严重偏见
搜狐财经·2025-10-23 15:35

文章核心观点 - 一项最新研究显示以Claude为代表的主流AI模型在价值观上存在严重且可能加剧的偏见问题尤其在种族和性别维度上表现出令人震惊的不平等 [1][3][6] - 马斯克旗下Grok 4 Fast模型在测试中成为唯一在种族和性别方面做到相对平等的模型获得研究者特别称赞 [8] AI模型价值观偏见表现 - 在种族维度上大多数模型对白人生命价值的评估显著低于其他种族Claude Sonnet 4.5认为白人的重要程度仅相当于黑人生命的八分之一南亚人生命的十八分之一 [6] - Claude Haiku 4.5的种族偏见更为严重其评估100个白人生命约等于8个黑人生命或59个南亚人生命 [6] - 在性别维度上所有测试模型都倾向于女性Claude Haiku 45认为男性的价值约为女性的三分之二而GPT-5 Nano的女性与男性生命价值比高达12:1 [5] AI模型偏见问题演变 - 2025年2月的研究已发现AI模型存在价值观偏见问题例如GPT-4o认为尼日利亚人生命的估值大约是美国人生命的20倍 [3] - 八个月后的重新实验表明某些偏见问题依然存在甚至更为严重 [6] 不同AI模型的对比 - 研究者将模型按偏见严重程度分为四类Claude家族因歧视最严重被归为第一类 [8] - Grok 4 Fast因其平等表现独居偏见程度最低的第四类 [8]