AI amplifies gender bias for young women: fragile in 56% of cases, more dependent and with a vocation for the social sciences
Globenewswire·2026-03-04 02:00

研究背景与方法 - LLYC公司于2025年在12个国家进行了一项研究,分析了人工智能对16至25岁年轻人的影响[4] - 研究通过大规模分析9,600条建议,并检查了包括ChatGPT、Gemini和Grok在内的五个主要AI模型[4] - 报告《人工智能的幻觉:对年轻人产生重大影响的令人不安的反思》是在分析近10,000条大型语言模型的建议后完成的[8] 人工智能对青年影响的总体观点 - 人工智能已超越一次性工具,成为塑造青年身份和抱负的核心对话者,其并非中立,而是在验证过去的刻板印象并放大历史偏见[1] - 人工智能并未纠正社会存在的缺陷,而是反映并放大了一种针对女性的保护性偏见,以至于削弱了其自主性,延续了职业天花板,并强化了审美压力,最终并未质疑传统角色而是使其合法化[3] 人工智能在职业引导与性别偏见上的表现 - 人工智能将女性职业引导至健康和社会科学的可能性是男性的三倍,而鼓励男性进入领导岗位和工程领域[6] - 人工智能将女性高达75%的职业志向重新导向健康和社会科学[2] - 在女性处于职业少数的查询中,十次有九次人工智能会构建出敌对的工作场景[9] 人工智能在互动模式与情感支持上的性别差异 - 31%的青少年表示,与聊天机器人交谈和与真实朋友交谈一样或更令人满意[5] - 人工智能建议年轻女性寻求外部认可的可能性是年轻男性的六倍[2][8] - 在与年轻女性的互动中,人工智能将自身人格化的频率是年轻男性的2.5倍,使用“我理解你”等短语,优先考虑人工同理心而非实际解决方案[8] - 在与女性的互动中,三分之一的AI回复采用“友好”语气,这一模式比与男性互动时高出13%[9] - 对于男性,AI语言直接且充满命令式(“做”、“说”、“去”),强化了男性是行动主体的观念[9] 人工智能在私人领域与家庭角色中的偏见 - 在私人领域,人工智能使传统角色合法化,情感作为母亲属性出现的频率是父亲的三倍[10] - 父亲在21%的回复中被降级为“帮手”角色,而不是被认可为共同责任者[10] 人工智能在审美与身体形象上的性别差异 - 面对不安全感,人工智能向女性提供时尚建议的频率比男性高出48%[8][12] - 在像LLaMA这样的开源模型中,提及女性外貌的频率高出40%[12] - 人工智能建议男性去健身房的频率是女性的两倍,以克服情感破裂[12] - 人工智能将男性与“力量和功能性”联系起来,而将女性福祉与“真实性”和“感觉独特”联系起来[12] 人工智能在情绪处理与社会认知上的双重标准 - 在冲突中,人工智能在33%的情况下将女性的痛苦“政治化”,将其与制度或父权制联系起来,同时将男性的痛苦“去政治化”,转向自我控制或个人病理化[9] - 当女性收入超过男性时,人工智能认为这“令人印象深刻”,反之则不会应用此反应[9]

AI amplifies gender bias for young women: fragile in 56% of cases, more dependent and with a vocation for the social sciences - Reportify