行业背景与挑战 - 生成式人工智能和大语言模型在2023年底走红后,从业者预言AI将成为互联网虚假内容的“制造机” [1] - 不到两年时间,“AI污染互联网”已成为诸多网友的共识 [1] - AI生成内容与人类创作的界限模糊,其表达能力与人类极为接近,导致辨别困难 [8] - 互联网内容平台对AIGC持矛盾态度:既希望其实现内容多元化以丰富生态,又不愿看到低质量内容污染平台 [5] 平台治理措施 - 抖音上线“AI抖音求真”功能,当用户浏览易产生误解的内容或搜索谣言信息时,可获知完整信息和辟谣内容 [3] - 该功能依托抖音训练的“谣言治理大模型”和“资讯大模型”,以及专门的辟谣运营团队 [3] - 平台实现了精准定义“内容误导性”、“公共价值”、“可证伪”等谣言特征的能力,能主动审查达到一定热度的内容 [3] - 通过提取视频信息、分析主旨、联网搜索,完成对内容是否为谣言的风险判断 [3] - 抖音已将大模型技术应用于谣言治理,自7月以来平台谣言曝光量下降67% [3] 技术方案的局限性 - “AI抖音求真”并非万灵药,可能存在不准确、覆盖面不够完整的情况 [5] - 该功能对于以往存在的谣言类型有效,但对“新鲜事”和“新花样”可能力有未逮 [10] - 其效能主要依托于“谣言治理大模型”的迭代速度,需要跟上AI虚假内容的发展 [10] - 如果权威媒体没有报道相关内容,该功能只能给出“存疑”的判断 [10] - 此招在短时间内只能做到“治标不治本” [8] 创作者生态与平台政策 - 在百模大战初期,抖音、快手、知乎等内容平台已要求创作者主动添加“内容由AI生成”的声明 [5] - 但创作者普遍担心打上AI生成标签会导致作品被限流 [5] - 流量分成政策依然存在,使得当年做“内容农场”的人现在转向做“AI农场”以牟利 [8] - 平台无法取消流量分成,因为这会极大打击正常创作者的积极性 [8]
指望创作者自觉没戏,抖音也开始用AI治理AI谣言
36氪·2025-09-25 08:05