Workflow
集体智能
icon
搜索文档
万物皆计算:重塑人类未来的五大底层逻辑
腾讯研究院· 2026-03-13 15:33
文章核心观点 - 人类正处于由人工智能(AI)驱动的认知范式革命之中,其深度堪比哥白尼的“日心说”对“地心说”的颠覆 [5] - 这场革命由五大互相关联的范式转变构成,它们共同重塑了我们对计算、智能以及AI未来发展的理解 [6] 自然计算 - 计算是一种自然现象,早在人类制造计算机之前就已存在于自然界,这一认知将推动计算机科学、AI、物理学和生物学的革新 [6] - 约翰·冯·诺依曼在1951年就发现了计算与生物学的深刻联系,证明了生命本质上是“计算性”的,DNA即是生命的代码 [13][14] - 艾伦·图灵在理论生物学领域做出开创性贡献,描述了组织如何通过感知和释放化学信号(形态发生素)进行生长和分化,这是一种强大的模拟计算形式 [16] - 谷歌“智能范式”团队的实验表明,在一个模拟的玩具宇宙中,可以从随机字符串“汤”中自发涌现出能够自我复制的最简单“人工生命”形式 [18] - 生命的复杂性通过自愈或繁殖能力得以持续存在,进化通过“多级选择”机制,使现有部分反复组合,形成越来越庞大复杂的实体,人类智能即源于约860亿个神经元的协同运算 [22][23] 神经计算 - 计算机科学的先驱们早已认识到大脑本质上是计算机,早期计算机的逻辑门即被构想为人工神经元 [25] - 传统AI(GOFAI)试图通过编写精确程序来复制智能,但最终失败,导致神经科学与计算机科学分道扬镳 [26][27] - “联结主义”学派拥抱机器学习,让神经网络从经验中学习,但20世纪基于二进制和串行执行的经典计算范式与神经计算并不契合 [28][29][30] - 大脑拥有约860亿个神经元,运行缓慢但高度并行且节能,而传统计算机模拟神经计算效率低下 [32][33] - 未来的神经计算范式将出现,其芯片可能包含数百万计像神经元一样并行工作的处理节点,计算由分布存储的数十亿参数决定,并能从经验中学习,实现分散且稳健的计算 [34][35] 预测智能 - 大语言模型(LLM)仅通过预测下一个词元就展现出惊人的通用智能,这一发现具有划时代意义 [36] - “预测性大脑假说”认为大脑进化是为了不断建模和预测未来,智能建立在不断演进的知识和对未来的统计建模之上 [10][38] - 未来的AI模型将演变为自我构建的系统,通过经验动态生长发展,并消除训练与推理(运行)之间的界限,实现持续、开放式的学习 [10][40] - LLM作为强大的通用预测器,不仅能处理语言,还能彻底变革机器人技术,驱动从自动驾驶汽车到人形机器人的各种形态 [42] - 拥抱预测处理范式,将规划、行动和预测统一起来,有望改进AI技术,并为机器学习、神经科学和理论生物学建立统一的理论基础 [43] 通用智能 - 关于AI是否具备真正智能的争论,功能主义的视角更为重要:关注系统实现的目的和功能,而非其具体实现方式 [48][49] - 当前的AI模型已经能够完成一系列广泛且不断增长的认知任务,其技能广度已超越任何单个人类个体 [10][53] - 衡量AI性能的标准已悄然从“任何个体”转变为“全人类”,当前单个人类的“通用性”已低于AI模型 [53] - 实现AGI(通用人工智能)的关键在于“无监督训练”,即在不规定具体任务的情况下进行通用学习,使模型获得广泛能力 [54] - AGI可能没有一个明确的跨越界限,或者这个界限已经被跨越,如今的LLM若展示给2002年的AI研究人员,会被认为是AGI [48][53] 集体智能 - 智能本质上是社会性的,“社会智力假说”认为人类智能的爆发源于社会性反馈循环和心智理论的发展 [10][56] - 人类通过认知分工组成了一个“超级生命体”,其智慧是集体性的,LLM通过训练大量人类集体成果,已在知识广度和平均深度上远超任何单个个体 [62] - 大脑皮层是一个模块化的“社区”,由运行通用学习算法的专门化区域组成,智能可被理解为一种“社会性分形” [64][65][66] - AI模型也遵循“规模法则”,更大的模型更聪明,并通过“专家混合模型”或“涌现模块化”实现内部的认知分工 [67] - AI发展的前沿正从单一的、权重冻结的基础模型,向具备高度自主性、能与其他智能体互动协作、并具备长期记忆和持续学习能力的形态演进 [68][69] - 智能的社会视角为AI工程和哲学问题(如意识)提供了新视角,LLM在心智理论测试中表现与人类不相上下,因其训练数据本就包含大量此类任务 [70]
AI化学家来了:华人学者一作Nature论文:AI生成化学合成实验方案,加速药物设计
生物世界· 2026-01-20 16:00
文章核心观点 - 耶鲁大学研究团队在《自然》期刊上发表论文,开发了一个名为MOSAIC的新型AI系统,该系统能够生成带有置信度指标、可重复且可直接执行的复杂化学合成实验方案,在实验验证中取得了71%的整体成功率,合成了超过35种新化合物,甚至发现了训练数据中未出现过的新化学反应方法[3] - MOSAIC框架基于“集体智能”理念,通过训练2498个专项化学“专家”模型,将化学反应空间划分为多个专业区域进行处理,其性能超越了参数规模大数个数量级的通用大语言模型(如ChatGPT-4o mini、Claude 3.5系列)[9][12] - 该系统旨在增强而非取代人类化学家,通过快速审视广阔的化学空间并识别有潜力的实验方向,将确定合适条件的繁琐过程缩短至几分钟,从而加速新药研发、功能材料设计等多个领域的进程[14][16] 化学研究面临的挑战 - 科学文献正呈指数级增长,每年有数十万个新的化学反应被报道,但将这些知识转化为实验室中的可行方案,仍严重依赖专家的个人经验与耗时的手动检索,传统方法效率低下且难以规模化[2][6] MOSAIC系统的工作原理 - MOSAIC(Multiple Optimized Specialists for AI-assisted Chemical Prediction)是一个新型计算框架,能让化学家利用数百万个反应方案的集体知识[6] - 其核心是“集体智能”,研究团队基于Llama-3.1-8B-instruct架构,在Voronoi聚类空间中训练了2498个专项化学“专家”模型[9] - 该系统将化学反应空间划分为多个专业区域,每个区域由专门的AI专家处理,类似于综合性医院的分诊系统,能够持续扩展其覆盖范围与精度,并直接从数据中发现和利用转化模式间的相似性[9][10] MOSAIC系统的实验性能 - 在实验验证中,MOSAIC系统取得了71%的整体成功率,实现了超过35种新化合物的合成[3] - 在产率预测分析中,MOSAIC的预测区间中值与真实产率中位数呈现了显著相关性(R²=0.811),表明它能有效捕捉不同反应类型的产率模式,而非简单记忆常见反应[12] - 在试剂和溶剂预测方面,当聚合最多三位专家的预测结果时,试剂的完全匹配率大幅提升至43.0%,在多位专家预测模式下,至少能部分预测出正确试剂或溶剂的成功率高达94.8%[12] - 仅拥有80亿参数的MOSAIC,其性能超越了参数规模大数个数量级的通用大语言模型[12] MOSAIC系统的应用与影响 - MOSAIC能够实现大量化合物的合成,应用范围包括药物、催化剂、先进材料、农用化学品甚至化妆品[4] - 该系统被比作现代化学合成的“指南针”,其价值在于能够快速审视广阔的化学空间,识别出那些原本需要大量文献调研和积累经验才能发现的有潜力的实验方向,将确定合适条件的繁琐过程缩短至几分钟内[14] - 随着MOSAIC等AI系统的不断完善,化学研究范式正在发生深刻变革,AI辅助的化学合成将成为常态,大大加速新药研发、功能材料设计等领域的进程[16] - AI与人类化学家的协同合作,将推动化学科学向更深更广的领域拓展,为人类解决能源、医疗、环境等重大挑战提供全新可能[17]
不用千亿参数也能合成高质量数据!这个开源框架让小模型“组团逆袭”,7B性能直追72B
量子位· 2025-06-17 15:41
GRA框架核心观点 - 无需依赖大模型蒸馏,通过多小模型协同机制(Generator-Reviewer-Adjudicator)即可生成高质量训练数据,实现"集体智能"路径 [1][13] - 实验证明GRA生成数据质量与Qwen-2.5-72B-Instruct等大模型输出相当或更高,在10个主流数据集中表现显著领先 [2][14] - 采用"模拟顶会审稿流程"机制,通过角色分工(生成/评审/仲裁)确保数据质量稳定性和标准统一性 [5][7][12] 框架运作机制 - **Generator**:划分数学/编程/逻辑推理等领域,小模型基于种子数据生成主题聚焦、语义清晰的样本 [8] - **Reviewer**:多小模型进行两轮审查,根据平均评分与一致性筛选样本,低分淘汰/分歧样本进入仲裁 [9] - **Adjudicator**:解决评审冲突,独立复审确保数据客观性,类似学术审稿中的Area Chair角色 [10] - **后处理模块**:通过语义去重、摘要补全与格式统一提升数据一致性与表达质量 [11] 实验验证结果 - **性能对比**: - Qwen-2.5-7B-GRA平均得分60.36,显著高于Alpaca(49.32)和Qwen-72B蒸馏版(53.03) [16] - LLaMA-3.1-8B-GRA平均提升6.18%,Qwen-2.5-7B-GRA平均提升11.81% [16] - Qwen-2.5-7B-GRA训练模型性能领先Qwen-72B蒸馏版8.83% [17] - **模型配置**:集成5个7-8B参数小模型(LLaMA-3.1-8B/Qwen-2.5-7B等) [14] 技术优势分析 - **数据多样性**:t-SNE显示GRA数据分布比种子数据广87.3%,覆盖更多语义盲区 [18] - **质量可靠性**:87.3%样本获Qwen-2.5-72B高分认可,评分分布更平滑细腻 [19] - **训练有效性**:IFD指标显示GRA数据难度比种子数据高14.58%,与Qwen-72B蒸馏数据相当(75.82% vs 75.49%) [20] 行业影响 - 打破大模型蒸馏依赖,提供低成本高性价比方案(7-8B小模型协同即可对标72B大模型) [17] - 揭示参数规模收益递减规律,验证"群体智慧"路径的扩展潜力 [17] - 开源项目推动行业应用(GitHub/Hugging Face资源已发布) [3][21]
AI智能体协议全面综述:从碎片化到互联互通的智能体网络
人工智能智能体协议调研报告核心观点 - 报告首次系统性地对AI智能体协议进行二维分类:面向上下文的协议与智能体间协议,以及通用型与特定领域的协议 [1] - 大型语言模型(LLM)智能体已在客户服务、内容生成、数据分析和医疗等行业广泛部署,但缺乏标准化通信协议限制了其协作能力 [1] - 研究重点比较了安全性、可扩展性和延迟性等关键性能维度,并探讨分层架构、隐私保护、联邦学习等未来发展趋势 [1] 智能体协议运作模式分析 模型上下文协议(MCP) - 采用高度中心化架构,由中央智能体直接调用所有外部服务接口(如get_flights(), get_hotels()) [2] - 信息流呈星形模式,所有数据汇总至中央客户端整合,优点在于简单易控但缺乏灵活性 [3] - 中央智能体成为性能瓶颈,扩展性面临挑战,处理高并发请求时效率下降 [3] 智能体到智能体协议(A2A) - 采用分布式架构,专业智能体(如交通部门、住宿部门)可直接通信无需中央协调 [4] - 旅行规划器仅负责结果整合,通信开销更低,支持动态变化的复杂协作模式 [5] - 跨组织边界协作时存在挑战,需依赖明确的接口定义 [5] 智能体网络协议(ANP) - 通过标准化跨领域交互解决A2A的局限性,支持不同安全边界的智能体协作 [6] - 采用结构化请求/响应规则,适用于定义明确接口的异构系统间交互 [6] Agora协议 - 将自然语言请求转换为标准化协议,包含自然语言理解、协议生成、协议分发三层架构 [7] - 用户输入"预算3000美元的5天北京-纽约行程"会被解析为结构化协议分发给专业智能体 [7] 智能体协议未来发展趋势 短期方向(1-3年) - 建立统一评估体系,综合考量通信效率、鲁棒性、适应能力等维度 [9] - 研发隐私保护协议,采用联邦学习技术共享聚合数据而非原始敏感信息 [10] - 开发智能体网状协议(Agent Mesh Protocol),实现群组内通信历史透明共享 [10] 中期方向(3-5年) - 探索将协议知识内建到LLM参数中,使智能体无需提示即可执行协议行为 [11] - 发展分层协议架构,分离传输层与语义层,提高异构智能体互操作性 [12] - 协议设计将整合伦理、法律和社会约束以符合社会价值观 [13] 长期方向(5年以上) - 构建支撑集体智能的基础设施,研究群体规模与通信拓扑的尺度定律 [14] - 开发智能体数据网络(ADN),支持机器中心化数据表示和异步协作 [15] - 协议演进可能引发社会组织与经济模式的变革,释放分布式集体智能 [17] 行业数据与资源 - 欧米伽未来研究所"未来知识库"收录超过8000篇前沿科技资料,每周更新不少于100篇 [18] - 知识库精选报告包括牛津AI安全研究、麦肯锡超级智能机构分析、斯坦福新兴技术评论等19份重量级文献 [19]
上交大推出首个AI智能体协议全面综述:从碎片化到互联互通的智能体网络
机器之心· 2025-04-30 12:23
智能智能体协议综述 核心观点 - 上海交通大学团队与ANP社区合作发布首个系统性的AI智能体协议综述《A Survey of AI Agent Protocols》,提出解决智能体间通信碎片化问题的框架 [2] - 当前智能体生态系统面临协议不统一的困境,类似早期互联网的通信标准分散问题,制约了互操作性和协作能力 [6] - 论文创新性提出二维分类体系,并评估了主流协议的7大关键维度,为开发者提供选择指引 [9][14] 协议分类框架 - **对象导向维度**: - 上下文导向协议:如Anthropic的MCP协议,专注智能体与外部工具/数据源的通信 [10] - 智能体间协议:如ANP、A2A协议,关注多智能体协作 [10] - **应用场景维度**: - 通用目的协议:适用于广泛场景 [13] - 领域特定协议:如LOKA用于人机交互,CrowdES用于机器人智能体交互 [13] - 覆盖主流协议包括Anthropic MCP、Google A2A、ANP、AITP、LMOS等十余种,提供提出者、应用场景、关键技术等详细梳理 [12] 协议评估维度 - **效率**:评估延迟、吞吐量、资源利用率及LLM特有的token消耗成本 [14] - **可扩展性**:提出"能力协商得分"(CNS)指标,衡量节点/链接扩展性 [14] - **安全性**:分析认证模式多样性、角色访问控制粒度及上下文脱敏机制 [14] - **可靠性**:引入"自动重试计数"(ARC)等指标,检验包重传和持久连接机制 [14] - **互操作性**:评估跨系统、跨平台适应性,强调理想协议需平衡低延迟与多智能体复杂性 [14] 应用案例对比 - **MCP**:集中式架构,单一智能体依次调用工具服务器,所有通信经中央智能体 [18] - **A2A**:分布式架构,专业智能体直接通信,非中心协调器收集结果 [18] - **ANP**:跨域架构,标准化交互促进独立智能体协作,明确组织边界 [18] - **Agora**:用户中心架构,自然语言直接生成协议,三阶段处理提升专业智能体专注度 [18] 未来展望 - **短期**:开发可进化协议,将协议作为智能体的动态可学习组件 [21] - **中期**:内置协议知识至LLM参数,实现无提示兼容;探索隐私保护协议和智能体网格协议 [20][21] - **长期**:构建分层协议架构,分离低级传输与高级语义交互;发展智能体数据网络支持结构化信息交换 [22][24] - 研究集体智能涌现规律,探索协议标准化如何推动超越单个组件能力的系统级行为 [23][24]