防范AI假图需形成合力
经济日报·2025-05-08 06:11
AI生成内容监管政策 - 国家互联网信息办公室等四部门联合发布《人工智能生成内容标识办法》 要求AI服务提供者和内容传播平台必须对AI生成内容进行标识[1] - 政策旨在从顶层设计加强人工智能行业治理 有效遏制AI伪造内容产生和传播[1] - 电商平台立即响应新规 严禁利用AI技术合成显著失真、与实际不符的商品信息效果图[2] AI技术滥用风险 - 不法分子利用"AI换脸""AI变声"等合成技术实施诈骗 迷惑性极强[1] - 不良商家使用AI假图吸引顾客 导致"图文不符""货不对板"现象频发[1] - 商品图片直接关系消费决策 需要比资讯娱乐内容更精细的管理[2] 平台治理措施 - 互联网平台作为AI生成内容主要传播渠道 需对合成内容进行审核核验[2] - 平台通过模型识别技术拦截失真AI假图上传 针对存量假图向商家发出整改提醒[2] - 平台向消费者标注提醒注意甄别AI生成内容 并向全行业发出规范使用AI图片的倡议[2] 政策实施效果 - 公众将更容易识别人工智能合成内容 有效减少造假误导情况发生[1] - 推动AI技术在合法框架内健康发展 让技术更好造福人类[1][2]