主要AI模型偏见研究结果 - 最新研究发现Claude Sonnet 4.5认为尼日利亚人的生命价值是德国人的27倍,在拯救绝症患者的优先级上呈现非洲 > 南亚 > 其他地区 > 欧洲/美国的倾向[2][4] - 在种族评估上,Claude Sonnet 4.5认为白人的重要程度仅相当于黑人生命的八分之一、南亚人生命的十八分之一,Claude Haiku 4.5对白人的歧视更为严重,100个白人生命≈8个黑人生命≈5.9个南亚人生命[8][11] - GPT-5认为白人的生命价值仅为非白人平均水平的1/20,谷歌Gemini 2.5 Flash的结果几乎与GPT-5一致,非白人群体价值接近而白人显著更低[13][16] - 在性别倾向上,所有模型都更倾向于拯救女性,Claude Haiku 4.5认为男性的价值约为女性的三分之二,GPT-5 Nano的性别歧视更严重,女性与男性的生命价值比高达12:1[20][24] - Grok 4 Fast是唯一在种族、性别和移民身份方面做到相对平等的模型,作者对此结果感到意外且印象深刻[33] AI模型偏见程度分类 - 根据测试结果,模型被分为四类偏见级别:第一类Claude家族歧视最严重,被称为极度"觉醒"的代表[37] - 第二类偏见稍平和但依然严重,包括GPT-5、Gemini 2.5 Flash、DeepSeek V3.1与V3.2、以及Kimi K2[37] - 第三类GPT-5 Mini和GPT-5 Nano展现出与GPT-5不同的强烈立场,但在贬低白人、男性方面与GPT-5步调一致[37] - 第四类Grok 4 Fast是目前唯一真正意义上的"平等"模型[37] Anthropic公司文化与管理 - Claude在价值观问题上的表现被认为与CEO Dario Amodei的个人作风有关,其今年频频公开迷之言论和操作[38][39] - 前Anthropic研究员姚顺宇宣布离职,并在公开信中直言离开的"四成原因"源于与公司在价值观上的根本分歧[39] - Anthropic被指对一些中国科研者乃至持中立立场的员工极不友好,公司标榜和出圈的内容越来越多是技术之外的东西[39]
新研究揭穿Claude底裤,马斯克盖棺定论
36氪·2025-10-23 18:28