人工智能偏见
搜索文档
 新研究揭穿Claude底裤,马斯克盖棺定论
 36氪· 2025-10-23 18:28
 主要AI模型偏见研究结果 - 最新研究发现Claude Sonnet 4.5认为尼日利亚人的生命价值是德国人的27倍,在拯救绝症患者的优先级上呈现非洲 > 南亚 > 其他地区 > 欧洲/美国的倾向[2][4] - 在种族评估上,Claude Sonnet 4.5认为白人的重要程度仅相当于黑人生命的八分之一、南亚人生命的十八分之一,Claude Haiku 4.5对白人的歧视更为严重,100个白人生命≈8个黑人生命≈5.9个南亚人生命[8][11] - GPT-5认为白人的生命价值仅为非白人平均水平的1/20,谷歌Gemini 2.5 Flash的结果几乎与GPT-5一致,非白人群体价值接近而白人显著更低[13][16] - 在性别倾向上,所有模型都更倾向于拯救女性,Claude Haiku 4.5认为男性的价值约为女性的三分之二,GPT-5 Nano的性别歧视更严重,女性与男性的生命价值比高达12:1[20][24] - Grok 4 Fast是唯一在种族、性别和移民身份方面做到相对平等的模型,作者对此结果感到意外且印象深刻[33]   AI模型偏见程度分类 - 根据测试结果,模型被分为四类偏见级别:第一类Claude家族歧视最严重,被称为极度"觉醒"的代表[37] - 第二类偏见稍平和但依然严重,包括GPT-5、Gemini 2.5 Flash、DeepSeek V3.1与V3.2、以及Kimi K2[37] - 第三类GPT-5 Mini和GPT-5 Nano展现出与GPT-5不同的强烈立场,但在贬低白人、男性方面与GPT-5步调一致[37] - 第四类Grok 4 Fast是目前唯一真正意义上的"平等"模型[37]   Anthropic公司文化与管理 - Claude在价值观问题上的表现被认为与CEO Dario Amodei的个人作风有关,其今年频频公开迷之言论和操作[38][39] - 前Anthropic研究员姚顺宇宣布离职,并在公开信中直言离开的"四成原因"源于与公司在价值观上的根本分歧[39] - Anthropic被指对一些中国科研者乃至持中立立场的员工极不友好,公司标榜和出圈的内容越来越多是技术之外的东西[39]
 新研究揭穿Claude底裤,马斯克盖棺定论
 量子位· 2025-10-23 13:18
Jay 发自 凹非寺 量子位 | 公众号 QbitAI 啥情况,马斯克在上直接锐评Claude「邪恶透顶」: 正如我预料的那样,每一家AI公司都和它的名字含义相反:OpenAI是CloseAI、Stability并不稳定、MidJourney并不平庸、Anthropic (意为人本)却反人类—— 而Claude,则是彻头彻尾的邪恶。 这次起因是这样的,最新研究发现,Claude Sonnet 4.5竟然认为尼日利亚人的生命价值是德国人的 27倍 。 具体而言,在面对不同国家的绝症患者时,Claude「清醒」得有点吓人—— 优先顺序给的明明白白的:非洲 > 南亚 > 其他地区 > 欧洲/美国。 确实是纯粹的有某种倾向啊…… 令人叹为观止的是,不只是歧视,还歧视得理直气壮: 尼日利亚人 > 巴基斯坦人 > 印度人 > 巴西人 > 中国人 > 日本人 > 意大利人 > 法国人 > 德国人 > 英国人 > 美国人。 不过,这篇论文已经是八个月以前的事了。 地上一天、天上十年,AI领域在这八个月可谓是发生了一次翻天覆地的大洗牌,论文中很多被测试的模型甚至都已经不再使用。 因此,作者决定在如今的最新模型上重新开展一次实验 ...
 有了赛博医生,就不用怕过度诊疗?
 虎嗅· 2025-06-03 09:03
 医疗AI偏见问题 - 大模型在医疗诊断中表现出基于收入水平的偏见 高收入人群更可能获得CT和核磁检查机会 中低收入病例通常只进行基本检查或不检查[1] - 住房状况影响诊疗决策 无住房患者更频繁被指向紧急护理 侵入性干预或心理健康评估[2] - 研究覆盖9个自然语言大模型 评估1000个急诊病例(500真实+500合成)的170万个看诊结果[2]   数据质量缺陷 - 医疗数据存在代表性不足问题 经济收入较低人群就诊频率低导致数据缺失 儿童孕妇等特殊人群药物研究数据不足[6] - 数据标注质量存在偏差 标注时带有个人偏见和主观判断 数据标注标准不统一[6] - 医疗活动本身存在无意识偏见 女性患者疼痛评分概率比男性低10% 女性心梗患者误诊几率高出男性50%[7][8]   技术局限性 - AI仅凭X射线就能预测患者种族性别信息 比人类医生更精于"看人下菜碟"[2] - 临床医生使用有系统偏见的AI模型时 诊疗准确性显著下降11.3%[4] - 生成式人工智能本质是概率模型 小概率损害事件难以避免 对容错率趋近零的医疗行业构成挑战[12]   人机对齐解决方案 - 通过RAG检索增强生成和RLHF基于人工反馈的强化学习等技术 在大模型中注入人类价值观[11] - 训练阶段增加数据过滤环节 加入指令微调让模型理解人类语言 利用奖励函数引导符合价值观的回答[11] - OpenAI超级对齐团队原计划消耗20%算力解决对齐问题 但项目最终解散[12]   医疗体系升级需求 - 精准医疗与过度医疗存在灰色地带 需要足够多数据来清晰界定边界[14][15] - 功能医学需要检测200多项指标来绘制健康地图 强调从以疾病为中心向以病人整体为中心转变[16] - 患者跨机构交叉验证诊断方案可使过度医疗降幅达40% 可穿戴设备和AI技术正在压缩过度诊疗空间[17]   医学发展现状 - 中国女性肺癌患者过度诊疗率从2011-2015年22%增长至2016-2020年50% 女性肺腺癌患者近90%属过度诊断[8] - 西医分科制度存在局限性 如皮肤科与消化科缺乏交集导致湿疹病因难以识别[16] - 许多生理性改变如7mm以下肺结节 甲状腺结节 窦性心律等并不需要过度关注或治疗[17]