Workflow
瞭望 | 为人工智能立“东方魂”
新华社·2025-07-07 16:28

人工智能伦理风险 - 通用人工智能在赋能行业的同时暴露出隐私泄露、算法歧视、责任界定困难等伦理风险,如三星员工使用ChatGPT导致半导体机密泄露[4] - 西方技术逻辑下伦理风险被放大,表现为数据滥用(位置/浏览/支付信息构建"数字画像")和算法失衡(外卖员路径优化忽视劳动者权益)[3][4] - 生成式人工智能存在"胡说乱画"现象,干扰社会价值判断,且可能污染人类数据库导致信息失真[6] 西方技术模式局限性 - "大数据+大算力+大模型"路径存在局限,早期生成式AI出现低级错误(如混淆刘翔参赛项目、泰山地理位置)[5] - 斯坦福研究显示GPT-4迭代后性能下降:质数判断准确率从488/500降至12/500,代码能力退化,主因是缺乏人类标注的新鲜数据[7] - 模型自噬现象凸显——用AI生成内容反哺训练会导致多样性丧失,图像/文本领域准确性下降[6] 中国治理路径 - 提出"以人为本、智能向善"原则,2023年发布《生成式AI服务管理暂行办法》要求内容符合社会主义核心价值观[8][10] - 建立敏捷治理机制:包括动态跟踪、分级评估(如风险等级体系)、多元共治等11项措施[11] - 推动中文语料建设,将主流意识注入互联网,争夺全球话语权(如公立机构语料库开放)[12] 技术演进观察 - 生成式AI通过预训练/微调/强化学习持续进化,初期甄别能力有限但后期显著改善(如地理问答纠错)[5] - 算法责任伦理面临重构:智驾事故难追责主体,平台需平衡效率与社会责任(如杜绝大数据杀熟)[4][9] - 情感计算技术催生虚拟伴侣,部分替代真实人际关系(基于统计模型的情感模拟)[4]