Meta shift from fact-checking to crowdsourcing: Competing approaches in fight against misinformation

内容审核政策变化 - Meta决定改变其内容审核政策,用用户生成的社区标签取代集中式的事实核查团队 [1] - 这一变化引发了对Meta旧政策(事实核查)和新政策(社区评论)有效性的质疑 [1] 内容审核的重要性 - 全球数十亿人使用Meta的平台(如Facebook和Instagram),平台有责任确保用户不受消费者欺诈、仇恨言论、错误信息等在线危害的影响 [2] - 内容审核在解决这些在线危害中扮演重要角色 [2] 内容审核的步骤 - 内容审核包括三个步骤:扫描在线内容以检测潜在有害的词语或图像、评估标记内容是否违反法律或平台服务条款、采取干预措施(如删除帖子、添加警告标签、减少帖子的可见性或分享) [3] 内容审核的模型 - 内容审核模型从用户驱动的社区平台(如维基百科)到集中式内容审核模型(如Instagram)不等 [4] - 研究表明,这两种方法各有优缺点 [4] 事实核查的有效性 - Meta之前的内容审核政策依赖于第三方事实核查组织,这些组织将有问题内容提请Meta员工注意 [5] - 事实核查依赖于公正的专家审查,研究表明它可以减少错误信息的影响,但并非万能药 [6] - 事实核查的有效性取决于用户是否认为事实核查者的角色和事实核查组织的性质值得信赖 [6] 众包内容审核 - Meta CEO马克·扎克伯格宣布,Meta的内容审核将转向类似于X(前Twitter)的社区笔记模型 [8] - X的社区笔记是一种众包事实核查方法,允许用户撰写笔记以告知他人潜在的误导性帖子 [8] - 研究表明,X风格的众包内容审核在减少误导性推文的参与度方面效果有限 [9] - 众包内容审核可能过于缓慢,无法在错误信息传播的早期和最具病毒性阶段有效减少参与度 [9] - 社区提供的标签可能无法有效减少错误信息的参与度,尤其是当平台用户没有接受适当的标签培训时 [10] - X的社区笔记存在党派偏见 [10] 众包内容审核的挑战 - 众包内容审核依赖于强大的贡献者系统,需要强有力的社区治理机制来确保志愿者遵循一致的指南 [11] - 人们可能以协调的方式操纵系统,点赞有趣但未经核实的内容 [11] 内容审核与消费者安全 - 安全可信的在线空间类似于公共产品,但如果没有愿意为共同利益付出努力的人,整体用户体验可能会受到影响 [12] - 社交媒体平台的算法旨在最大化参与度,但鼓励参与的政策也可能导致伤害,内容审核在消费者安全和产品责任中也扮演重要角色 [12] - 内容审核对使用Meta进行广告或与消费者连接的企业有影响,因为平台必须在保持社交媒体环境安全和增加参与度之间取得平衡 [13] AI生成内容的挑战 - 内容审核可能因人工智能工具生成的内容增加而进一步受到压力 [14] - AI检测工具存在缺陷,生成式AI的发展挑战了人们区分人类生成和AI生成内容的能力 [14] - OpenAI在2023年1月推出的分类器因准确性低而在2023年7月停用 [15] - 存在大量虚假账户(AI机器人)利用算法和人类弱点来货币化虚假和有害内容的潜在风险 [15] - 生成式AI工具(如ChatGPT)使得创建大量逼真的社交媒体资料和内容变得更加容易 [16] - AI生成的内容可能表现出显著的偏见(如种族和性别),Meta因其AI生成的资料而面临批评 [16] 内容审核的局限性 - 无论采用何种内容审核方式,仅靠内容审核并不能有效减少对错误信息的信任或限制其传播 [16] - 研究表明,结合事实核查方法、平台审计以及与研究人员和公民活动家的合作对于确保社交媒体上的安全和可信社区空间至关重要 [17]