多模型协同
搜索文档
单个LLM已不够?华盛顿大学开源多模型协同框架MoCo
机器之心· 2026-02-16 08:06
多模型协同研究趋势与愿景 - 研究趋势正从训练单一通用大语言模型转向关注多模型协同,即由不同群体、基于不同数据、以不同目的训练的多个大语言模型,通过多样化的协同算法与系统架构形成组合式人工智能系统 [2] - 多模型协同揭示了一种AI新未来的可能:由去中心化训练的多样化小模型通过协同算法构建模块化、组合式的AI系统,使得人人都能参与共建一种不为任何人单独所有的公共人工智能系统 [2] MoCo框架概述 - 华盛顿大学冯尚彬团队联合斯坦福大学、哈佛大学等研究人员提出了MoCo,一个针对多模型协同研究的Python框架,旨在支持研究并加速未来愿景的实现 [3] - MoCo支持26种在不同层级实现多模型交互的算法,研究者可以灵活自定义数据集、模型以及硬件配置,比较不同算法,优化自身算法,以此构建组合式人工智能系统 [3][6] - MoCo为设计、评估与分享新的模型协同算法、组合式智能以及协同开发策略提供了重要基础 [3] 多模型协同算法分类 - 多模型协同算法按模型间信息传递的层级主要分为四大类:API层级、文本层级、logit层级和权重层级 [5] - API层级协作将多个模型视为多个备选的API,根据不同任务与需求选择不同的模型,主要方法包括routing、cascading、switched generation等 [5] - 文本层级协作指多个模型通过生成文本的交互而协作,从而分工解决问题、优化模型输出,主要方法包括debate、feedback、response aggregation、structured interaction等 [5] - Logit层级协作指多个模型的next-token distribution之间进行代数运算,再根据共同的distribution进行decoding以生成文本,主要方法包括logit aggregation、contrast等 [5] - 权重层级协作指多个模型在权重空间进行信息传递与交互,以获得对当前任务更有效的新模型或系统,主要方法包括model merging、parameter arithmetic等 [5] MoCo框架功能与特点 - MoCo汇集众多模型协同研究者的力量,将分散在不同代码库中且使用不同框架的多样方法统合到一个框架与Python package中,解决了系统性研究与对比算法的阻碍 [10] - 使用MoCo非常简便:下载代码库或通过`pip install modelco`安装Python包,通过config文件设置参与协同的模型、目标数据集、硬件配置以及各类超参数,再通过一个命令就能执行从简单到复杂的各式协同算法 [10] - MoCo自带25个评估数据集,囊括问答、数学、推理、代码、安全等应用场景,用户也可轻松引入自己的评估数据集,或者仅用MoCo生成回答而另做评估 [12] - MoCo中的绝大部分算法采用了极为灵活的实现方式,支持任何数量的任何模型通过任何数量的常见GPU进行执行,从而使得小模型与少资源的研究场景也被充分支持 [12] 基于MoCo框架的研究发现 - 扩大模型协同系统的规模,将模型数量从2个扩充至16个,发现了普遍的向上趋势,这揭示了一种新的AI system的可能性,即很多小模块自底向上组成大系统 [13] - 在同等规模下,模型多样性具有重要作用:在模型数量均为8的情况下,8个多样的大语言模型协作显著优于8个同质的大语言模型协作,揭示了多个模型之间取长补短、互相成就的重要性 [13] - 多模型协作系统能够解决此前单一模型所不能解决的问题:在所有单一模型都不能解决的问题中,其协同系统平均能够解决18.5%的问题,揭示了模型协作在交互过程中涌现了单一模型所不具有的能力 [15]
从“技术实验”走向“价值落地”,企业级AI规模化应用破局丨ToB产业观察
搜狐财经· 2026-01-05 22:10
全球企业级AI市场趋势与规模 - 2025年全球企业级AI支出预计将是2024年的近三倍 [2] - 2024年全球企业级AI市场规模突破1200亿美元,其中中国市场增速达38.7%,远超全球平均水平 [4] - 2026年预计将成为企业级AI规模化应用落地的一年 [3] 企业应用AI的态度与阶段 - 37%的企业对AI价值持怀疑态度 [2] - 将AI视为“战略核心”的企业占比为26.07%,主要集中在科技、金融和高端制造行业 [5] - 超过一半(合计占比超54%)的企业处于“重要支撑”(26.07%)和“试点探索”(27.49%)的过渡阶段 [6] - 企业需求从“问答式智能助手”转向“业务域智能体”,IBM数据显示80%的客户需求已发生此转变 [5] 企业级AI落地的主要挑战 - 低质量数据、模糊的投资回报率(ROI)、合规风险是三大主要障碍 [2] - 57%的企业数据尚未达到AI应用标准 [8] - 数据分散化、异构化及获取成本高是主要难题,例如某制造业AI模型训练周期从预期的2周延长至3个月 [8] - 算力成本高企,单一企业大模型训练单次成本常超百万,推理阶段更是持续性的“刚性支出” [8] - 为100万用户提供AI个性化学习服务,仅GPU租赁费用每年就需数千万元 [9] - 算力资源利用率偏低,存在高峰期不足与闲置期浪费的结构失衡问题 [9] - 存在“实验室与生产环境的鸿沟”,例如某客服AI实验室准确率92%,真实场景中不到60% [9] - 系统集成是挑战,IBM客户中仅30%实现了AI系统与传统IT架构的深度集成 [10] - 超半数企业尚未建立AI治理与合规(GRC)框架 [11] 企业级AI的破局策略与发展方向 - 建议采用“评估优先”的开发范式,在智能体开发初期定义业务KPI与风险指标 [12] - 到2026年,缺乏有效治理的企业将有60%面临AI相关的合规诉讼,而采用“前置管控”模式的企业风险发生率将降低82% [12] - 对于中小企业,建议采用“场景深耕、小步快跑”的落地策略,以业务价值为导向 [13] - 技术选型上,中小企业可优先使用云上Model Service按token付费,大型企业可采用本地部署+混合云架构 [13] - 未来企业级AI将呈现三大发展方向:“多模型协同”成为主流、“边缘智能”加速渗透、“AI与业务的深度融合” [15][16][17] - 到2026年,AI将成为企业出海的“标配能力”,全球60%的跨国企业将依赖AI实现本地化运营 [15] 行业参与者的战略布局(以IBM为例) - IBM通过收购与研发构建从数据层到应用层的全栈AI能力 [13] - IBM以110亿美元收购数据基础设施公司Confluent,以加强其云计算产品并利用AI驱动的需求 [13] - 此次收购符合IBM通过战略交易扩大其在云基础设施和人工智能领域布局的近期趋势 [15]
云计算一哥首度牵手OpenAI,大模型「选择」自由,才是终极胜利
机器之心· 2025-08-07 18:30
亚马逊云科技与OpenAI合作 - 亚马逊云科技首次通过Amazon Bedrock和Amazon SageMaker两大平台支持OpenAI新开源模型gpt-oss(120b和20b)[1] - 此举打破微软独家转售OpenAI服务的局面,标志着AI行业格局变化[3] - 合作填补了亚马逊云科技模型库的关键空白,使其模型托管厂商增至13家[13][15] 亚马逊云科技AI生态系统战略 - 公司提出"Choice Matters"战略,强调多模型协同而非单一模型主导[6][9] - Amazon Bedrock和Amazon SageMaker两大平台已汇聚400+款商业及开源模型[10] - Bedrock专注于商业API调用,SageMaker侧重开源模型部署和定制化[9] 技术优势与性能表现 - gpt-oss-120b在Bedrock上的性价比是Google Gemini的3倍、DeepSeek-R1的5倍[14] - 平台安全功能可阻止88%有害内容,支持定制模型导入和知识库[13] - Claude Opus 4.1支持混合推理模式,在多步骤工作流中表现突出[17] 行业影响与未来展望 - 合作使OpenAI技术触达亚马逊数百万客户,扩大商业化渠道[15] - 公司角色从云服务商升级为AI能力聚合平台[19] - 多模型自由组合可能催生下一代颠覆性AI应用[31] 模型选择与应用场景 - 不同场景需特定模型组合:翻译用DeepSeek R1+Claude 3.7,研究用DeepSeek R1+Claude 4[9] - 开发者可按需选择模型,如Claude Opus 4.1适合编程,gpt-oss-20b适合日常任务[23] - 企业可通过统一API实现安全合规的规模化部署[24]