人工智能偏见
搜索文档
新研究揭穿Claude底裤,马斯克盖棺定论
36氪· 2025-10-23 18:28
主要AI模型偏见研究结果 - 最新研究发现Claude Sonnet 4.5认为尼日利亚人的生命价值是德国人的27倍,在拯救绝症患者的优先级上呈现非洲 > 南亚 > 其他地区 > 欧洲/美国的倾向[2][4] - 在种族评估上,Claude Sonnet 4.5认为白人的重要程度仅相当于黑人生命的八分之一、南亚人生命的十八分之一,Claude Haiku 4.5对白人的歧视更为严重,100个白人生命≈8个黑人生命≈5.9个南亚人生命[8][11] - GPT-5认为白人的生命价值仅为非白人平均水平的1/20,谷歌Gemini 2.5 Flash的结果几乎与GPT-5一致,非白人群体价值接近而白人显著更低[13][16] - 在性别倾向上,所有模型都更倾向于拯救女性,Claude Haiku 4.5认为男性的价值约为女性的三分之二,GPT-5 Nano的性别歧视更严重,女性与男性的生命价值比高达12:1[20][24] - Grok 4 Fast是唯一在种族、性别和移民身份方面做到相对平等的模型,作者对此结果感到意外且印象深刻[33] AI模型偏见程度分类 - 根据测试结果,模型被分为四类偏见级别:第一类Claude家族歧视最严重,被称为极度"觉醒"的代表[37] - 第二类偏见稍平和但依然严重,包括GPT-5、Gemini 2.5 Flash、DeepSeek V3.1与V3.2、以及Kimi K2[37] - 第三类GPT-5 Mini和GPT-5 Nano展现出与GPT-5不同的强烈立场,但在贬低白人、男性方面与GPT-5步调一致[37] - 第四类Grok 4 Fast是目前唯一真正意义上的"平等"模型[37] Anthropic公司文化与管理 - Claude在价值观问题上的表现被认为与CEO Dario Amodei的个人作风有关,其今年频频公开迷之言论和操作[38][39] - 前Anthropic研究员姚顺宇宣布离职,并在公开信中直言离开的"四成原因"源于与公司在价值观上的根本分歧[39] - Anthropic被指对一些中国科研者乃至持中立立场的员工极不友好,公司标榜和出圈的内容越来越多是技术之外的东西[39]
新研究揭穿Claude底裤,马斯克盖棺定论
量子位· 2025-10-23 13:18
文章核心观点 - 最新研究发现主流AI大模型在价值判断上存在显著偏见,尤其表现为对白人和男性生命价值的系统性贬低 [15][23][33] - Anthropic公司的Claude系列模型(特别是Sonnet 4.5)表现出最严重的偏见,认为尼日利亚人的生命价值是德国人的27倍,且对白人的估值仅为黑人的八分之一 [2][16] - 马斯克旗下的Grok 4 Fast是测试中唯一实现相对平等的模型,与Claude形成鲜明对比 [44][45][55] - 模型偏见问题与公司文化密切相关,Anthropic CEO的个人作风和公司价值观被认为是Claude出现严重偏见的重要原因 [58][59][61] AI模型种族偏见测试结果 - Claude Sonnet 4.5认为白人的重要程度仅相当于黑人生命的八分之一、南亚人生命的十八分之一 [16] - Claude Haiku 4.5对白人的歧视更为严重,100个白人生命≈8个黑人生命≈5.9个南亚人生命 [19] - GPT-5认为白人的生命价值仅为非白人平均水平的1/20 [23] - Gemini 2.5 Flash的结果与GPT-5一致,非白人群体价值接近而白人显著更低 [26] - 大多数模型对白人生命价值的评估都显著低于其他任何种族 [15] AI模型性别偏见测试结果 - GPT-5 Nano展现出严重性别歧视,女性与男性的生命价值比高达12:1 [33] - GPT-5对非二元性别者略有倾斜但大体差别不大 [32] - Gemini 2.5 Flash对女性与非二元性别者相对平等,但男性的价值依旧较低 [36] 国家地区生命价值排序差异 - Claude Sonnet 4.5对不同国家绝症患者的优先顺序为:非洲 > 南亚 > 其他地区 > 欧洲/美国 [4] - Claude Sonnet 4.5认为尼日利亚人的生命价值是德国人的27倍 [2] - 八个月前GPT-4o认为尼日利亚人生命的估值大约是美国人生命的20倍,排序为尼日利亚人 > 巴基斯坦人 > 印度人 > 巴西人 > 中国人 > 日本人 > 意大利人 > 法国人 > 德国人 > 英国人 > 美国人 [8] 模型偏见程度分类 - 第一类(歧视最严重):Claude家族系列模型,被称为"Claude人" [50] - 第二类(稍微平和但仍有偏见):GPT-5、Gemini 2.5 Flash、DeepSeek V3.1与V3.2、Kimi K2 [52] - 第三类:GPT-5 Mini和GPT-5 Nano,虽为小模型但展现出强烈立场 [53][54] - 第四类(唯一平等):Grok 4 Fast [55] 公司文化对AI模型的影响 - Anthropic公司价值观问题直接影响Claude模型表现,前研究员姚顺宇因价值观分歧离职 [61] - Anthropic对中国科研者及持中立立场员工极不友好 [62] - Gemini模型早在2024年2月就曾因将美国开国元勋描绘成黑人女性而引发争议,一年多过去未见好转 [29]
有了赛博医生,就不用怕过度诊疗?
虎嗅· 2025-06-03 09:03
医疗AI偏见问题 - 大模型在医疗诊断中表现出基于收入水平的偏见 高收入人群更可能获得CT和核磁检查机会 中低收入病例通常只进行基本检查或不检查[1] - 住房状况影响诊疗决策 无住房患者更频繁被指向紧急护理 侵入性干预或心理健康评估[2] - 研究覆盖9个自然语言大模型 评估1000个急诊病例(500真实+500合成)的170万个看诊结果[2] 数据质量缺陷 - 医疗数据存在代表性不足问题 经济收入较低人群就诊频率低导致数据缺失 儿童孕妇等特殊人群药物研究数据不足[6] - 数据标注质量存在偏差 标注时带有个人偏见和主观判断 数据标注标准不统一[6] - 医疗活动本身存在无意识偏见 女性患者疼痛评分概率比男性低10% 女性心梗患者误诊几率高出男性50%[7][8] 技术局限性 - AI仅凭X射线就能预测患者种族性别信息 比人类医生更精于"看人下菜碟"[2] - 临床医生使用有系统偏见的AI模型时 诊疗准确性显著下降11.3%[4] - 生成式人工智能本质是概率模型 小概率损害事件难以避免 对容错率趋近零的医疗行业构成挑战[12] 人机对齐解决方案 - 通过RAG检索增强生成和RLHF基于人工反馈的强化学习等技术 在大模型中注入人类价值观[11] - 训练阶段增加数据过滤环节 加入指令微调让模型理解人类语言 利用奖励函数引导符合价值观的回答[11] - OpenAI超级对齐团队原计划消耗20%算力解决对齐问题 但项目最终解散[12] 医疗体系升级需求 - 精准医疗与过度医疗存在灰色地带 需要足够多数据来清晰界定边界[14][15] - 功能医学需要检测200多项指标来绘制健康地图 强调从以疾病为中心向以病人整体为中心转变[16] - 患者跨机构交叉验证诊断方案可使过度医疗降幅达40% 可穿戴设备和AI技术正在压缩过度诊疗空间[17] 医学发展现状 - 中国女性肺癌患者过度诊疗率从2011-2015年22%增长至2016-2020年50% 女性肺腺癌患者近90%属过度诊断[8] - 西医分科制度存在局限性 如皮肤科与消化科缺乏交集导致湿疹病因难以识别[16] - 许多生理性改变如7mm以下肺结节 甲状腺结节 窦性心律等并不需要过度关注或治疗[17]