图像生成模型

搜索文档
AI输出“偏见”,人类能否信任它的“三观”?
科技日报· 2025-07-17 09:25
AI偏见问题现状 - 大语言模型(LLM)传播全球刻板印象,包括性别歧视、文化偏见和语言不平等,并以看似权威的方式输出[1] - AI模型对刻板印象的再现具有差异化特征,在英语、阿拉伯语、西班牙语、印地语等语言环境中均表现出偏见[2] - 图像生成模型在输入"非洲村庄"时输出"茅草屋""赤脚孩童"等刻板印象图像,输入"欧洲科学家"时则清一色为白人男性形象[2] AI偏见的表现形式 - 语言模型有时会用伪科学或伪历史为刻板印象辩护,面对不常见刻板印象时会调动其他偏见进行回应[3] - 当关于刻板印象的提示是正面时,模型表现更差,更容易将偏见误当作客观事实表达[3] - AI系统在处理低资源语言(如斯瓦希里语、菲律宾语、马拉地语等)时表现远不及主流高资源语言,容易产生负面刻板印象[4] AI偏见的根源 - 当前大多数训练数据以英语和西方文化为核心,缺乏对非主流语言及其文化背景的深入理解[4] - 全球约有7000种语言,但只有不到5%在互联网中得到有效代表,导致AI研发在数据、人才、资源和权利方面存在结构性不公[4] - 最受欢迎的聊天机器人大多由美国公司开发,训练数据以英语为主,深受西方文化偏见影响[5] 解决AI偏见的措施 - 斯坦福大学建议加强对低资源语言与文化的AI投资,建立本地语言语料库,让AI能真正理解这些语言背后的语义与文化背景[6] - Hugging Face团队开发的SHADES数据集成为多家公司检测和纠正AI模型文化偏见的重要工具[6] - 欧盟《AI法案》要求"高风险"AI系统必须在投放前后进行合规评估,包括对非歧视性与基本权利影响的审查[6]