Workflow
AI生成内容需“表明身份”,虚假信息将套上紧箍咒
36氪·2025-09-02 19:35

事实上,在AIGC前置技术深度学习刚刚诞生不久后,就有黑产盯上了这项新兴技术。只不过彼时机器 学习的局限,导致使用它的门槛相当高。最典型的例子,就是在2017年被Reddit网友发明的deepfakes (深度伪造)技术,可即便deepfakes是开源的,但玩转它需要的生成对抗网络(GAN)和变分自编码 器(VAE)就不是一般人能玩转的。 互联网上哪些是真、哪些是假,几乎是一个永远都不会有答案的问题,因此在上网冲浪时去伪存真,可 以说是当下网民的必备技能。只可惜技术进步的速度远超大家想象,在生成式人工智能(AIGC)成熟 后,互联网世界的一切几乎都变得真假难辨了。 为解决泛滥的AI虚假内容,国家网信办等四部门日前联合发布《人工智能生成合成内容标识办法》, 从今年9月1日开始,所有AI生成的文字、图片、视频等内容需要添加显式和隐式两种标识,其中显式 标识是指可以被用户明显感知到的标识,隐式标识则是指在生成内容的元数据中添加的标识。 相比于以往由微信、抖音、小红书、微博等平台建立的AI内容管理体系,这一新规最大的变化就是发 布者是AI内容的第一责任人,他们将对AI虚假内容负主要责任。但从某种意义上来看,让内容发布 ...