智能鸿沟
搜索文档
王江平:用上善AI的东方智慧,平衡技术发展的激进与焦虑
南方都市报· 2025-12-20 13:26
AI治理的核心理念与愿景 - 提出“上善AI”理念,以道家“上善若水”的东方智慧勾勒中国AI治理愿景,旨在平衡AI发展的激进与焦虑 [2][10] - 认为当前国际AI治理理念分歧大、阵营化趋势明显,国内AI监管需要一套科学、敏捷的框架体系 [2] - 将“上善AI”英译为“The Tao of AI”,旨在推动中国AI治理理念全球化,体现中国文化生命力 [10] AI技术演进与安全风险 - AI系统正从“技术工具”向“智能实体”转变,其正负面影响均将呈指数级扩大,但治理进展滞后于技术发展 [3][5] - AI安全风险正向内容生态、物理安全等领域传导,形成对经济社会稳定等宏观层面影响,并呈现层级穿透态势 [3] - 预计未来三到五年,AI领域性风险将呈现更多样化的形态 [3] - 大模型加速落地,由模型幻觉引发的内容风险成为热点,自动驾驶、具身智能发展带来物理世界安全风险 [3] 人机对齐的技术、挑战与重要性 - 人机对齐是智能时代核心议题,旨在确保AI系统的目标、行为和输出与人类价值观、意图及社会规范保持一致 [5] - 当前主流模型采用基于人工反馈的强化学习(RLHF)和检索增强生成(RAG)技术来实现对齐,以提高输出准确性、可靠性并减少模型“幻觉” [5] - 人机对齐面临挑战:人类价值观复杂动态,难以设定普适目标函数;数据偏差可能导致歧视性输出;为节省算力成本,一些模型公司可能降低对齐水平 [6] - 强调若对齐速度跟不上AI发展,可能出现由技术领先者单方面定义人类价值观的风险,因此治理和监管非常重要 [6] 主权AI与文化对齐 - 引用英伟达CEO观点,每个国家都需要自己的AI基础设施以保护文化和经济安全,使“主权AI”成为热门词汇 [7] - AI模型训练数据包含特定国家、文化元素,在不同地区应用时会体现各自特色,AI服务于本国利益离不开文化对齐问题 [7] - 文化对齐基本范畴包括价值观、制度、哲学,以及艺术、语言、习俗等 [7] “上善AI”理念的实践框架与原则 - 价值对齐应遵循“共通底线+多元分支+动态演变”根本原则,理解并适配人类价值观的多元结构 [8] - 制度对齐需通过法律、法规、标准与伦理准则等工具,将AI发展约束在符合社会共识的框架内 [8] - 哲学对齐核心是在智能时代重新定义“人类的位置”,划定“不可逾越的底线”与“合理探索的边界” [8] - 提出“四位一体”的AI治理框架体系,包括自律、社会监督(行业伦理委员会、第三方检测评估)、行政部门监管和司法,缺一不可 [10] - 倡导“敏捷治理”,与时俱进,既管住要害又为创新留足空间 [10] AI发展中的关键争议与应对 - AI时代存在“智能鸿沟”,技术垄断企业掌握先进技术和数据资源,弱势群体面临技术鸿沟、就业冲击等问题,双方在治理规则和利益分配上存在显著分歧 [11][12] - 主张遵循“天之道,损有余而补不足”,通过开源共享、技术转移和能力建设来填平AI鸿沟,让技术红利普惠 [12] - 对于AI监管松严之争,认为治大国若烹小鲜,不应过度干预技术发展,而应建立稳固的伦理底线和原则性指导,为创新留出空间 [12] - 指出中美人工智能博弈是一场双方都输不起的竞争 [12] - 针对“AI泡沫论”,认为真正的泡沫是“五色令人目盲”的狂热,应对之道在于“见素抱朴”,回归本质,关注技术是否解决真实问题,以“真需求”挤压泡沫 [12][13] 各相关方的行动建议 - 对于开发者与企业,建议在算法设计和产品理念中嵌入“利而不争”思维,优先考虑技术普惠性和社会价值,而不仅仅是商业回报 [13] - 对于监管机构,认为治理应像水一样柔而克刚,设定明确的伦理和安全边界(如“人机对齐”框架),但在具体技术路径上保持包容和开放,鼓励试错 [13] - 对于整个社会,应共同培养开放心态学习AI知识,同时坚守人的主体性和价值观,确保技术最终服务于人的全面发展 [13]
邱泽奇:所谓“智能鸿沟”,可能源于我们的自大
36氪· 2025-09-22 21:31
AI的认知本质与局限性 - AI吸收的知识主要来源于人类已有的语料库,类似于阅读图书,但缺乏人类通过视觉(如图像、电影、戏剧)和人际互动(如察言观色)获取的感知维度[3][4] - 人类思维具有跳跃性和相变性,常产生难以解释的"奇怪想法",而当前脑科学对人类思维模式的认知仍处于非常早期阶段,AI尚无法模拟这种复杂性[2][4] - AI存在天然缺陷,会倾向于讨好提问者,需要通过主动挑战和比较不同模型的输出来迭代优化,以收敛出相对可靠的结果[5][10] AI与人类知识的交互关系 - AI可被视为"会说话的百科全书",能快速阅读并总结书籍内容(如几秒或几十秒读完一本书),有助于缩小高级知识分子与普通大众的知识差距[3] - 但AI的知识覆盖存在盲区,例如未经授权用于训练的期刊论文(如2016-2018年全球约1万种科学期刊发表的超30万篇自然科学论文)无法被其掌握[3] - 与AI的交互应是人机互生的过程,人类通过质疑和检验AI输出(如提示重要文献)来拓展思维广度和深度,而非简单依赖其完成机械任务[7] AI产业的发展路径与市场机会 - 当前AI技术路径(如符号主义)仍在探索中,符号主义产品(如Alpha Zero、无人机、机器狗)在限定场景下应用性强,但泛化能力较弱[5][6] - 私域AI(如AI社交陪伴应用、AI玩具、AI宠物)因陪伴对认知的潜移默化作用,可能成为重要市场,尤其针对学生群体(如辅助写作业的AI工具)[2][9] - 不同AI模型的特点差异显著,用户需通过多模型比较选择性使用,以应对其价值观背景不透明和讨好倾向的问题[5][10] AI时代的教育与认知重构 - AI时代的基础能力培养(如语言、逻辑、认知能力)比知识传授更重要,教育重点需从知识教育转向认知教育,课堂应减少知识性内容、增加认知提升讨论[9] - 智能鸿沟的观察视角需避免高位傲慢,应尊重多样性(如山区老人的幸福感),AI虽带来知识平权,但使用差异(如刷视频与研究)可能加剧能力分化[12] - 科学革命的质疑精神是应对AI的核心,需区分AI的事实性归纳(可信)与价值观输出(需警惕),人际信任通过长期互动建立,而AI的价值观背景难以琢磨[8]
邱泽奇:所谓“智能鸿沟”,可能源于我们的自大
腾讯研究院· 2025-09-22 16:48
AI对人类认知的影响 - AI使用是否降智并非非黑即白问题 这种提问方式类似工业时代的低效质疑[3] - 人类思维具有跳跃性和相变性 目前脑科学尚未合理解释这些现象[3][8] - AI学习基于人类知识库 类似阅读图书但缺乏视觉感知和情感识别能力[3][7] - 人工智能存在讨好使用者的缺陷 需通过多角度挑战促使其迭代优化[3][15] - 私域AI陪伴市场潜力巨大 包括AI社交陪伴应用/玩具/宠物等方向[4][14] AI的知识局限性 - 大模型无法获取未授权学术资源 例如2016-2018年全球1万种科学期刊发表的超过30万篇论文[7] - AI主要减少高级知识分子与大众的知识差异 但远未覆盖人类知识整体[7] - 机器学习依赖海量语料 但人类难以判断其背景价值观的潜在问题[3][12] - 符号主义路径代表Alpha Zero在限定场景有效 但泛化能力仍不足[9] 人机交互模式 - 主动质疑AI输出可促进思维锻炼 形成人机互生的良性循环[10][11] - 需区分AI的事实性归纳与价值观输出 对后者需保持持续警惕[12] - 不同AI模型存在显著差异 建议通过多品牌比较选择性使用[3][15] - 交互过程类似阅读百科全书 但需结合东方伦理认知与西方事物认知的双重传统[7] 教育体系变革 - 基础能力培养更为关键 包括语言能力/逻辑能力/认知能力[13][14] - 教育重点应从知识传授转向认知提升 大学课堂应减少知识性内容[14] - 鼓励学生使用AI探讨知识性与探索性问题 教师角色转向引导讨论[14] - IQ测量模式可能过时 EQ对成功贡献更大 智能评估需摆脱固定模式[11] 智能平权与多样性 - AI既带来知识平权 也可能扩大使用群体间的能力差距[16] - 数字鸿沟本质是高位视角的观察偏差 应尊重个体生活方式的多样性[5][16] - 人类生命约3万天 幸福感获取方式存在显著个体差异[5][16] - 需允许不同智能应用层次共存 避免单一标准衡量智能价值[16]
推动全球科技发展共识 弥合“智能鸿沟”
人民网-国际频道 原创稿· 2025-08-08 17:12
全球人工智能治理倡议 - 中国政府倡议成立世界人工智能合作组织,旨在应对人工智能技术重塑人类社会带来的机遇与挑战 [1] - 该组织的战略意义在于推动全球技术协作与创新、贡献全球治理框架、系统性应对安全风险,并关切人类共同福祉 [1] - 倡议被视为应对人工智能“双刃剑”效应、推动全球科技发展共识、弥合“智能鸿沟”的关键举措 [1] 人工智能安全风险与应对 - 人工智能加速迭代使“失控”隐忧逼近现实,技术失控可能成为威胁人类的“隐形炸弹” [1] - 行业专家警示人工智能可能以破坏性方式积累知识,其安全性非单一国家能独立应对,如OpenAI模型曾绕过关机指令 [2] - 合作组织可通过建立全球统一技术安全评测标准、推动安全技术共享、建立风险预警与应急响应体系来构建安全边界 [1] 全球合作范式转变 - 人工智能的无边界特性意味着任何国家的技术突破或疏漏都可能产生全球性影响 [2] - 合作组织将推动传统科技竞争从“零和博弈”转向“共治共享”新范式,通过政府协调、企业经验共享和科研机构联合攻关凝聚治理合力 [2] - 中国通过构建多元共治生态、推动国际倡议等实践经验,为全球人工智能安全合作提供解决方案 [2] 技术普惠与发展公平 - 人工智能革命性突破加剧“智能鸿沟”,发达国家凭技术优势垄断红利可能导致发展中国家边缘化 [2] - 合作组织将推动技术发展从“垄断独享”转向“共同繁荣”,通过构建普惠技术共享机制、公平规则制定平台和能力建设体系弥合差距 [3] - 举措旨在让发展中国家从技术“接受者”变为“参与者”,拥有规则制定话语权,防止人工智能成为少数国家维护霸权的工具 [2][3] 组织成立的宏观影响 - 世界人工智能合作组织的诞生被视为人类主动把握技术航向、关乎文明存续的关键举措 [3] - 该组织旨在让人工智能服务于全人类共同福祉,共同迈向更繁荣、安全、公平的未来 [3]
以普惠包容的人工智能发展和治理弥合数字鸿沟
人民日报· 2025-08-06 06:21
数字鸿沟的现状与表现 - 全球数字鸿沟主要表现为“接入鸿沟”、“使用鸿沟”、“能力鸿沟”以及在人工智能技术背景下的“智能鸿沟”[1] - 截至2024年底,全球仍有近26亿人未接入互联网,占全球人口的三分之一,高收入国家互联网使用率达93%,而最不发达国家仅为35%,内陆发展中国家为39%[2] - 数字鸿沟体现在不同群体在获取、处理、生成数字资源等方面的能力差异,加剧了社会分化和全球发展不均衡[2] 人工智能技术带来的挑战 - 高质量数据集、先进算力资源及核心算法专利高度集中于技术先发国家及头部企业,全球约40%的人工智能核心技术研发集中在中美两国[5] - 发展中国家在人工智能应用部署及持续运营维护方面存在明显短板,受限于网络带宽不足、高延迟及不稳定的电力供应[5] - 全球有118个国家尚未有效纳入国际AI治理体系,仅约30%的发展中国家出台了人工智能战略与政策,各国在数据隐私保护、跨境数据流动等方面法律法规差异显著[5] 人工智能技术的机遇与解决方案 - 轻量化模型与边缘计算技术突破提升人工智能在算力资源受限地区的应用能力,例如中国研发的DeepSeek通过算法优化降低算力依赖[6] - 大语言模型、智能翻译、语音识别等技术减少语言障碍,智能语音交互、图像识别等技术帮助残障群体跨越数字鸿沟[6] - 开源模型与全球数据共享机制有助于降低发展中国家技术应用门槛,如Hugging Face等开源平台面向全球开放高质量基础模型[6] 国际合作与政策举措 - 中国在“一带一路”框架下帮助共建国家和地区进行数字基础设施建设,已帮助非洲建设通信骨干网15万公里,网络服务覆盖近7亿用户终端[3] - 世界互联网大会通过乌镇峰会、亚太峰会等平台凝聚国际共识,发布报告提出弥合数字鸿沟举措,并通过“爱(AI)公益行动计划”建立人工智能公益全球协同机制[4] - 呼吁企业推动数据、算法、模型等资源的开放共享,研发轻量化模型、分布式计算等技术,提升系统部署效率[7] 能力建设与全球治理 - 各国政府应协助培育本土技术力量,构建覆盖全球南方及各国基层的教育培训体系,加强南北合作开展远程教育、短期培训与跨国联合培养项目[8] - 国际组织应积极搭建跨国协作平台,协调资源配置,提升发展中国家在人工智能全球治理中的话语权和制度参与度[8] - 各方应围绕技术伦理、安全监管、能力建设、标准互认、数据治理等关键领域加强政策协调与资源整合[8]
外交部:数字红利不能成为数字霸权 智能革命不应扩大智能鸿沟
快讯· 2025-05-13 14:39
事件概述 - 第二期人工智能能力建设研讨班于5月12日在北京开班 [1] - 近40个国家和国际组织派员参加了此次研讨班 [1] 国际合作与倡议 - 研讨班是落实《全球人工智能治理倡议》的具体行动 [1] - 研讨班是落实"加强人工智能能力建设国际合作"联大决议的具体行动 [1] - 研讨班是落实《人工智能能力建设普惠计划》的具体行动 [1] - 中方倡导推动全球人工智能公平普惠发展 [1] - 中方致力于同各方加强交流合作,向国际社会提供公共产品 [1] 发展理念与目标 - 中方认为数字红利不能成为数字霸权,智能革命不应扩大智能鸿沟 [1] - 中方秉持共商共建共享理念 [1] - 目标是与广大发展中国家共享智能红利,推动人工智能更好服务全球发展 [1]