Workflow
算法性别偏见
icon
搜索文档
人工智能的“歧视”:“她数据”在算法运行中隐形
36氪· 2025-05-20 18:55
图源:pexels 纵观人类的发展史,每一次科技进步都将对性别平等产生深刻影响。尤其是当下,人们对于借助人工智 能技术快速发展来弥合性别不平等寄予厚望。 但很多人没想过,人工智能技术本身是客观中立、不存在"算法歧视""性别偏见的吗? 弗吉尼亚大学计算机科学专业教授在测试图像识别软件时曾发现,人脸识别系统会将厨房图片中的男性 识别为女性;在烹饪和体育活动方面,用搜索引擎搜索出来的图片也存在明显的偏向性,如烹饪形象与 女性相关,而体育形象则多为男性…… 这些社会活动中的性别"刻板印象",折现出算法本身的"性别偏见"。作为人工智能的核心要素,算法通 过解决问题的逻辑规则,将数据转化为决策或预测。而在从数据运行到结果呈现,算法过程的每个环节 都可能存在社会偏见,"性别偏见"往往被忽视却又真实存在。 如何消除算法中的"性别偏见"?如何平衡性别平等与个性化推荐?是人工智能发展过程中需要解决的伦 理问题。 女性的"隐形"与"缺失" 数据是算法运行的基础,更是人工智能学习成长的"养料"。但实际上,当前的数据更偏向男性,在数据 采集环节就可能埋下性别偏差的"种子"。 例如,美国加利福尼亚大学、华盛顿大学的研究人员在《柳叶刀·公 ...