Workflow
原创作品被判定AI生成,平台怎么防止“冤假错案”
新京报·2025-08-14 19:06

AI内容误判与平台责任 - 平台算法误判真人创作内容为AI生成导致用户内容被隐藏和账号禁言 全国首例AI误判案中用户起诉平台并胜诉 法院判决平台删除违规记录并撤销隐藏内容 [1][2] - 法院确立平台有权审查AI生成内容但需提供合理依据 平台因无法解释算法决策依据而承担举证责任并败诉 程序正义成为判决核心而非实质内容判定 [2] - AI检测技术准确性存疑 高校论文审核中出现AI率红线误判 学生需刻意修改语句以通过检测 复旦大学试行"六个禁止"严规而南京大学将检测结果仅作参考 [3] AI治理与监管框架 - 国家四部门联合发布《人工智能生成内容标识办法》 要求AI模型对生成内容添加标识 平台需根据情形附加相应标识 3月15日正式实施 [4] - AI生成内容引发学术不端 著作权侵权及商业利益侵害等风险 人力标识不可行导致"以AI对抗AI"成为常态 但AI检测技术仍存在错误判定 [4] - 治理需结合法律制度 社会共识与政治判断 人类需作为最终责任者和价值守门人 平台被认可为审核守门员但裁判权受限 体现权力与责任平衡 [5] 技术误判的社会影响 - 算法缺乏可解释性且申诉机制不透明 误判直接损害创作者声誉和作品可见度 澳大利亚政府技术误判福利欺诈导致50万人受影响并启动赔偿 [5] - 案件确立用户被误判后可主张合法权益的原则 平台需建立可追溯的复核机制并加强算法可解释性 为数字世界权利责任划分提供方向 [5] - 人机界限模糊化加剧身份认证困境 人类需自证非机器而AI模仿人类行为却无障碍 未来需明确权利责任边界以避免系统性误判 [6]