Workflow
OpenAI承诺加强AI视频安全监管 严控Sora深度伪造风险
环球网资讯·2025-10-21 12:05

合作声明与核心目标 - OpenAI与美国演员工会(SAG-AFTRA)共同发布联合声明,宣布建立深度合作机制,重点防范其AI视频生成工具Sora可能引发的深度伪造(Deepfake)滥用问题 [1][3] Sora技术能力与潜在风险 - Sora作为文本到视频生成模型,具备“1分钟长视频生成”、“物理规律模拟”、“多镜头叙事”等能力,自曝光以来引发全球关注 [3] - 其强大的内容生成能力带来深度伪造风险,不法分子可能利用该技术伪造名人影像、篡改历史事件或制造虚假新闻,对个人名誉、社会信任甚至国家安全构成威胁 [3] OpenAI的具体合作措施 - 在Sora后续版本中实施严格的“选择加入”(Opt-In)政策,所有艺术家、表演者及普通用户需明确授权后,其声音、肖像方可被用于AI生成内容 [3] - 建立快速响应机制,对涉嫌侵权的生成内容进行下架处理,并配合执法部门追溯源头 [3] - 向合作方开放部分技术细节,鼓励第三方机构开发深度伪造检测工具,目前已有斯坦福大学、MIT等高校参与相关研究,试图通过算法识别AI生成内容的微小瑕疵 [3]