人在回路中
搜索文档
1865年《红旗法案》的幽灵,仍在今天游荡
腾讯研究院· 2026-02-04 16:54
“人在回路中”理念的批判性审视 - 文章核心观点是批判“人在回路中”这一人工智能治理主流理念,认为其可能像19世纪的“红旗法案”一样,成为阻碍技术发展的现代桎梏,主张应从“人在回路中”转向“人在回路之上”,以释放AI作为时代“奇迹材料”的全部潜能 [2][3] 历史类比:21世纪的“红旗法案” - 19世纪英国的《红旗法案》规定蒸汽汽车前需有人手持红旗步行开路,将车速限制在步行水平,这导致英国汽车产业停滞约30年,技术研发和市场普及远落后于德法 [6][8] - 文章将“人在回路中”的理念类比为21世纪的“红旗法案”,认为两者都基于人类必须主宰技术的执念,用基于旧物种经验的定义(如速度、轨道)来限制新技术的潜能 [10][11] AI作为时代的“奇迹材料” - 每个时代都由其“奇迹材料”塑造,如钢铁定义了工业时代,使摩天大楼成为可能;AI则是当前时代的“钢铁” [13][14] - AI的真正革命性在于其执行、逻辑重构与自动化决策能力,若坚持让人类有限的经验作为每一道工序的终审,AI的潜能将被锁死在人类想象力的天花板之下 [15] - 用旧世界的认知模式(如人类未被证明的意识逻辑)去框定AI,可能永远无法见证超脱人类认知的异质智慧诞生 [15] 理念转变:从“在回路中”到“在回路之上” - 面对AI这类革命性技术,过度的微观控制(人在回路中)可能成为阻碍,如同用管理马车的方式管理星际飞船 [17] - 主张从“人在回路中”转向“人在回路之上”,人类不应身处自动化回路之中进行僵化控制,而应在更高层面进行目标定义、价值审视及关乎社会公平与道德的元规则设计 [17] - 真正的变革需从基因层面重组,而非在旧结构上叠装AI为旧系统续命 [18] 责任框架的范式转变 - 针对AI在关键领域(如医疗、驾驶)可能犯错的责任担忧,本质是用旧秩序的“个体责任制”套用新物种 [19] - 提出责任归属可从即时的人类干预,转向事前算法审计与事后系统性赔付,如同现代航空业建立系统安全审计与高额保险机制,将问责前置到目标设定,后置到结果修正 [19] 结论:警惕思维惯性,开启未来 - 最需要警惕的或许不是AI失控,而是人类自身的思维惯性 [20] - 当不再试图手持旗子走在AI前方(即过度控制),而是学会驾驭其无限潜能时,真正的未来才会开启 [21]
王江平详解如何破除AI科学发现“堰塞湖”
中国新闻网· 2025-12-16 16:21
核心观点 - 当前AI科学发现领域存在严重的“堰塞湖”困境,即AI预测能力呈指数级增长与人类验证及产业化能力呈线性增长之间的矛盾,导致大量成果无法转化并占用大量资源 [3] 问题成因分析 - **预测模型局限性**:模型存在逻辑推理和知识深度不足、黑箱困境与幻觉风险、目标推导能力有限等问题 [3] - **缺乏标准和评估体系**:由于缺乏评估标准,海量AI预测结果的准确率和可合成性难以确定 [3] - **实验验证能力不足**:实验室环境适配性与灵活性差,难以满足AI自主验证需求;存在数据孤岛和设备孤岛导致跨平台互操作性低;感知、决策与执行环节存在脱节,无法形成闭环 [3] 对策与建议 - **加强数据与标准体系建设**:需重点建设高精度、长序列、多模态的行业数据集,建立公共高价值数据中心以减少重复工作,并构建权威的AI预测结果评估体系 [4] - **加快AI自主实验室建设**:需倡导开源与模块化以降低建设门槛;探索“人在回路中”的混合增强智能模式,因完全无人化的“AI科学家”尚难实现;发展数字孪生与通用知识模型;探索多智能体协作的“联合科学家”模式 [5] - **加强中试平台建设与产学研合作**:需发挥应用场景优势,加强中试平台建设以推动工程化创新,并推动学术界与产业界的合作 [5]