Meta终止第三方事实核查计划 - Meta宣布将终止其第三方事实核查计划 首先从美国开始 此举标志着该社交媒体巨头处理其平台错误信息方式的重大转变 [1][2] - 公司的官方理由是 为了促进言论自由 将专注于对非法或高度有害内容的执法 减少审查 [2] - 这一决定被批评为试图讨好即将上任的美国总统唐纳德·特朗普 但背后可能隐藏着更为现实的动机 即为了更高的用户参与度和收入 [1] 转向众包内容审核模式 - Meta的策略将从独立的专业事实核查 转向依赖众包贡献的社区审核模式 [2] - 众包模式鼓励参与式审核 但专业事实核查在确保内容审核的准确性和一致性方面可能更有效 [4] - 社交媒体平台的收入来源于用户参与 而被标记为误导或有害的内容 由于平台算法的推广 往往能吸引更多关注 [4] 众包审核模式的风险与挑战 - 增加错误信息暴露风险:缺乏专业事实核查员 虚假或误导性内容的流行度可能会上升 社区驱动的审核虽具包容性和去中心化 但存在局限 [6] - 验证负担转移给用户:随着专业监督减少 评估内容准确性的责任落在用户身上 但许多用户缺乏评估复杂声明所需的媒介素养、时间或专业知识 [8] - 存在被操纵风险:众包审核容易受到有组织团体的协同操纵 一项2018年的研究发现 社交机器人在放大来自不可靠来源的内容方面发挥了重要作用 尤其是在文章病毒式传播的早期阶段 [9] - 影响公共讨论质量:未经核实的错误信息可能使社区两极分化 制造不信任并扭曲公共辩论 Facebook和Instagram上的讨论质量可能随着错误信息更自由地传播而下降 [11] 行业背景与影响 - 这一举措与政府、社交媒体公司、民间社会团体和公众之间关于平衡言论自由与内容审核的更广泛讨论相一致 [3] - 有证据表明内容审核中存在偏见 例如2023年剑桥大学的一项研究讨论了内容审核中的偏见如何损害边缘化社区的文化、社会和经济权利 [3] - 2022年的一项美国研究表明 政治极化会增加真相偏见 即人们倾向于相信自己认同的人说的是实话 这可能导致用户与虚假信息的互动增加 而优先考虑吸引眼球内容的算法会进一步放大这种效应 [5] - 实现保护言论自由与确保信息完整性之间的平衡是一项复杂的挑战 Meta宣布从专业事实核查转向众包社区审核 可能通过放大虚假信息和仇恨言论的传播来破坏这种平衡 [14]
What Meta's move to community moderation could mean for misinformation