AI只是可控工具: AI伦理学者乔安娜·布赖森谈AGI神话与未来治理
腾讯研究院·2025-12-16 17:34

文章核心观点 - 人工智能本质上是一个可控的工具,其特殊性不应被过度强调,发展的核心在于确保透明度、问责制以及明确的责任链条[5][7][14][21] - 通用人工智能(AGI)的叙事可能被科技公司用于规避责任和推动市场集中,真正的挑战在于对复杂系统的管理和监管,而非技术本身具备自主意识[6][7][13][14] - 人工智能对就业的影响具有双重性,可能同时产生替代效应和增强效应,社会需要通过教育改革、技能再培训和社会保障体系的调整来应对经济转型[5][8][9] - 人工智能治理的关键在于建立有效的监管框架,明确产品责任,欧盟的《人工智能法案》是开创性的尝试,但执行和跨国监管面临挑战[7][15][19][20][22] - 全民基本收入(UBI)可能是一个过于简化的解决方案,解决财富不平等需要更系统的措施,如公共教育和适度的激励机制[17][18] AI的本质与定位 - 人工智能是加速科研进程的工具,与其他工具没有本质区别,不必过于强调其特殊性[5] - 人工智能与政府和公司类似,是一种通过技术和合作放大人类智能的复杂系统,问题核心在于如何管理和监管这些系统以确保透明与可问责[6] - 当前AI不具备人类意义上的“意识”,其与人类是异质性关系,目标由人类设定,缺乏真正的共同规划和决策[13] - AGI本质仍是工具,决策权始终在人类手中,如同计算器或抛硬币,责任在于背后的控制者[14] AI对经济与就业的影响 - 自动化引入可能产生两种经济效应:替代效应(减少劳动力需求)和增强效应(通过提高生产力创造就业)[5] - Oxford研究显示,英国目前未显现明显替代效应,反而在高生产力领域看到更多就业机会[5] - 工作的本质涉及权力集中,企业通过自动化用更少人完成更多工作,同时集中权力并雇佣高生产力员工以提升控制力[8] - 经济转型导致技能重新估值,旧技能价值可能降低,新技能需求出现,教育与社会保障体系需改革以帮助人们适应[9] - 未来若多数工作由AI完成,工作的定义可能转向社会联系、个人认同和自我价值实现,如餐饮、艺术等行业提供情感交流空间[10] AI风险、责任与治理 - AI的主要风险并非自主意识,而在于系统是否透明、可控及有明确的责任链条[7][14][15] - 必须确保AI产品有清晰的责任追溯机制,一旦出现问题能明确责任所在,责任模糊化不可接受[15][16] - 欧盟《人工智能法案》影响深远:明确AI产品法律地位,要求高风险系统严格记录,禁止某些不兼容服务(如社会信用评分),并要求明确标识AI性质[19] - AI治理的挑战在于法案的执行,尤其是在跨国监管和全球统一标准方面[20] - 监管大型AI平台及防止市场过度集中是关键,需确保技术像GPS一样得到合理监管以维持公平竞争[21][22] - 跨国科技公司的监管是被忽视的重要议题,需通过国际合作建立框架,应对其在全球数据使用和广告市场的主导地位对公共利益造成的冲击[22] 社会发展与政策应对 - 面对AI带来的变革,北欧国家提供了参考模式,即政府选择未来产业方向并通过劳动力再培训帮助人们适应新环境[9] - 社会保障体系需提供更多支持,防止因失业导致的身份认同危机和极端化行为[9] - 全民基本收入(UBI)理念存在争议,可能过于简化,解决财富不平等需要更系统的措施如公共教育和结构性支持[17][18] - 最理想的社会经济结构是保持适度的基尼系数(约0.27),过度平等或贫富差距过大均不利于社会稳定与发展[18] - AI监管应被视为对可控工程产品的监督,需建立明确机制并确保发展符合人类利益[23]