人工智能监管应因时而变(微观)
人民日报·2025-10-16 06:17
人工智能技术应用与风险 - 生成式人工智能技术加速迭代 音频 视频 图像等内容生成效果日趋逼真 带来治理挑战[1] - 截至2024年中国生成式人工智能产品用户规模已达2.49亿人 人工智能生成内容呈现跨平台化和跨境传播特征[1] - 人工智能生成内容易于被批量篡改和重组 源头不易找 追溯难度大 违法违规内容迅速蔓延 侵害个体权益并扰乱网络秩序[1] 人工智能监管政策与法规 - 《人工智能生成合成内容标识办法》施行 规定对生成合成内容要添加显式标识 并在文件元数据中添加隐式标识 为内容溯源与责任认定提供技术保障[1] - 党的二十届三中全会《决定》提出建立人工智能安全监管制度[2] - 《中华人民共和国网络安全法》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法律法规出台为人工智能有效监管奠定基础[2] 司法实践与治理创新 - 司法通过个案裁判和司法解释细化立法原则 填补规则漏洞 实现对技术进步的能动回应 例如最高人民法院2024年发布反垄断民事诉讼司法解释规制互联网平台通过人工智能等技术手段排除 限制竞争的行为[2] - 北京建立人工智能监管沙盒机制 探索弱版权保护政策和风险补偿规则 降低数据安全隐患 减少数据流通合规成本 加快推动人工智能产业化应用[3] - 对人工智能治理与监管需统筹发展和安全 既明确相关主体行为边界 也为创新与探索留足空间 避免过度监管扼杀创新活力[2][3]