Workflow
前置预防
icon
搜索文档
平台内容治理的破局之道
经济观察报· 2025-11-15 00:28
行业监管背景 - 中央网信办持续部署"清朗"系列专项行动,重点打击"自媒体"发布不实信息、短视频恶意营销、AI技术滥用及恶意挑动负面情绪等乱象[2] - 专项行动使平台内容审查的责任边界问题愈发凸显,平台作为信息传播核心载体面临责任逻辑差异、用户违规成本低、权责不对等等多重困境[2] - 厘清责任归属是落实"清朗"行动要求和构建健康网络生态的关键举措[3] 平台责任差异分析 - 电商平台以商品交易为核心,形成消费者与商户的直接契约关系,商品真实性及合规性的第一责任主体是商户,平台承担次要审查与监管义务[4] - 内容平台的内容生产者是海量普通用户,行为属于个人表达且缺乏商业契约约束,平台面对分散的个人用户导致管控难度显著提高[5] - 电商平台商户数量在数万级别,可通过封店、保证金扣缴形成强约束;内容平台用户达数亿级别,对违规用户主要依赖"封号"但违约成本极低[6] - 内容平台传播信息具有强外部性,不实内容可能迅速扩散影响公众舆论,使平台在公众期待中处于更高责任关联位置[7] 内容审查现实困境 - 2024年全国法院一审审结侵害信息网络传播权纠纷案件12万余件,同比增长15.71%;全国受理网络违法和不良信息举报2.27亿件[8] - 内容平台每天生成数以亿计的内容,信息洪流使平台难以事前把关,违规内容类型多样导致无法预设完全有效的过滤体系[9] - 个体违规成本极低,用户被封号后可通过换手机号重新注册,形成"一对多"治理格局使责任被稀释,平台集中承担监管压力和品牌风险[10] - 平台被赋予过高责任但缺乏执法权,只能进行删帖、封号等操作,陷入"高责任、弱手段"的悖论[11][12] - 审查尺度面临两难:把关过严影响表达活力,把关过松面临监管问责;算法推荐追求用户停留时间可能推送违规内容[13] - 社会期待平台"即时发现、即时处理",但技术手段只能"尽量降低概率";直播领域因实时性特点,算法存在识别延迟和判断盲区[14] 治理破局方向 - 欧盟《数字服务法》采用"分层责任"模式,依据平台规模和风险设定不同义务,将责任在个人、平台、社会之间合理分配[17] - 提高个人行为成本可通过算法识别用户信用等级建立分级权限体系,信用高用户获得更多推荐,违规率高用户被限流或冻结[18][19] - 算法优化应引入"多目标算法"平衡点击率与信息质量,部分透明化可提升社会信任避免"黑箱效应"[20] - 治理方向从"事后处理"转向"前置预防",利用自然语言处理和图像识别技术对内容发布前进行风险分级[21] - 平台应积极引导优质内容生产传播,通过激励原创让优质内容成为主流,从"背锅者"转型为"价值引导者"[22]