深度合成
搜索文档
紧盯三个关键领域,强化人工智能科技伦理治理
第一财经· 2026-04-07 00:23
《人工智能科技伦理审查与服务办法(试行)》政策解读 政策核心与定位 - 工信部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,是我国统筹人工智能发展与安全、创新与责任、效率与公平的重大制度安排,旨在为人工智能技术向善与智能产业高质量发展提供明确的科技伦理规范 [2] - 该办法填补了我国人工智能领域专门性伦理审查制度的空白,并在关键领域划定了不可触碰的“红线”,违规将面临严厉处罚 [5][6] 人工智能行业需遵循的核心伦理原则 - 开展人工智能科技活动需将科技伦理要求贯穿全过程,遵循八大原则:增进人类福祉、尊重生命权利、尊重知识产权、坚持公平公正、合理控制风险、保持公开透明、确保可控可信、强化责任担当 [2] - 人工智能发展的根本伦理立场是坚守“人是目的而非工具”,确保技术始终服务于人,而非颠覆人的主体地位 [3] 需进行专家复核的三大重点领域 - **领域一:对人类主观行为、心理情绪和生命健康有强影响的人机融合系统研发**,如脑机接口、情感计算、神经调控、增强认知等技术,因其直接作用于人的感知、情绪、认知乃至生命机能,发展失序可能导致人格异化、自主意识被干预、生命健康受损等严重后果 [3][4] - **领域二:具有舆论社会动员和社会意识引导能力的算法模型、应用程序及系统研发**,旨在防范“算法权力”带来的公共风险,如利用生成式人工智能、算法推荐、深度合成、舆情引导系统制造信息茧房、放大社会对立或操纵公共舆论 [4] - **领域三:具有高度自主能力的自动化决策系统研发**,特别是在交通、医疗、工业、应急、公共管理等涉及人身安全与重大公共利益的场景中,系统一旦出现算法偏见、逻辑漏洞或失控运行,可能直接造成人身伤亡、重大财产损失与系统性风险 [5] 当前人工智能行业面临的伦理风险 - 算法黑箱与算法歧视加剧社会不公 [2] - 深度合成、内容操纵等技术冲击舆论生态 [2] - 数据滥用与隐私侵害直接侵犯公民人格尊严 [2] - 高度自主决策系统模糊责任边界、挑战人类主体地位 [2] - 部分人机融合技术直接触及生命健康与人格尊严的核心底线 [2] - 部分人工智能的研发和应用单纯出于追逐利益,并不具有科学价值和社会价值 [2]