Workflow
Phi系列
icon
搜索文档
OpenAI和微软官宣「分手」,七年CP终成塑料
创业邦· 2026-04-28 18:25
微软与OpenAI合作协议修订的核心内容 - 微软与OpenAI联合宣布完成合作协议的新一轮修订 核心变化包括:云合作独家限制正式解除 知识产权授权从独家变为非独家 收入分成重新划定了天花板[4] - 在云合作上 微软仍是OpenAI的主要云合作伙伴 OpenAI新产品依然优先在Azure发布 但独家限制正式解除 OpenAI现在可以通过任何云提供商向客户提供服务[30] - 在知识产权上 微软对OpenAI知识产权的授权期限延长至2032年 但性质从独家变为非独家[30] - 在收入分成上 微软不再向OpenAI支付分成 OpenAI向微软的分成延续至2030年 比例不变 但设有总额上限 与OpenAI的技术进展脱钩[32] - 在通用人工智能问题上 微软明确获得了独立追求通用人工智能的权利 不再受制于OpenAI的技术路线[32] 双方合作历史与演变 - 2019年7月 微软正式宣布对OpenAI投资10亿美元 2023年1月 微软承诺投资100亿美元 并获得OpenAI知识产权独家使用权直至2030年 同时享有OpenAI 20%收入的分成[13] - Azure成为全球唯一托管GPT系列的云平台 微软旗下各条产品线也全都搭上了OpenAI的顺风车[13] - 合作协议中曾包含一个关于通用人工智能的条款:如果OpenAI董事会认定其模型实现了通用人工智能 那么它有权单方面终止微软的独家使用权[26] - 通用人工智能的定义为:OpenAI非营利董事会在合理裁量权下认定 通用人工智能已经被创造出来 具备为盈利单位的投资者带来最大可分利润的能力 且OpenAI有能力和权限指挥通用人工智能去实现这些利润[26] 合作关系紧张与摩擦的根源 - ChatGPT爆红后 OpenAI从幕后模型供应商转变为顶级产品公司 直接面对终端市场 推出了API、企业版、GPTs Store 甚至开发协作文档和浏览器 开始进入微软腹地[13] - 双方存在“双线销售”的竞争关系 微软握有通过Azure销售OpenAI模型的权利 OpenAI也能直接卖给客户 导致两家公司有时会向同一客户推销几乎相同的产品[15] - 微软内部文件显示 其销售人员被要求告诉客户 OpenAI自营的服务适合用于实验 但缺乏企业级能力 安全与隐私功能也相对欠缺[15] - OpenAI则通过率先销售微软Azure尚未提供的语音识别模型Whisper 签下了包括Salesforce和Jane Street在内的不少大客户[15] - 双方在算力分配上的分歧在2025年公开化 OpenAI认为微软提供的顶级芯片和云资源跟不上其模型训练需求 微软则表示已“提供所能提供的一切”[18] - 微软高管对OpenAI模型运作的透明度颇有怨言 例如曾因OpenAI没提交o1模型的“思维链”技术文档而当场发火[21] 双方的“去绑定”与多元化战略 - 微软开启了“去OpenAI化”的备胎计划 包括:内部训练轻量模型Phi系列 收购Inflection AI的大模型团队 推进自有企业模型MAI 在部分Copilot场景中替代OpenAI模型 与Hugging Face、Cohere、Mistral等模型厂商建立分销关系[19] - 微软内部“MAI超级智能团队”已正式推出自研的MAI系列模型 覆盖语音、图像、转录等多个方向 目标是在两到三年内实现AI能力的完全独立[32] - OpenAI启动了“星门计划” 与软银、Oracle等合作伙伴共同进行 但该合作声明中唯独缺少了微软的名字[21] - OpenAI开始把软银、Oracle、英伟达等伙伴拉进来 自己搭建更大的算力网络 微软随后调整协议 允许OpenAI去建设额外算力 只保留优先选择权[23] - 对OpenAI而言 重组之路已然打通 上市前景更加清晰 算力来源也完成了多元化布局[32]
小模型才是 Agent 系统的「核心组件」?
机器之心· 2026-04-19 09:30
小模型如何从「先看能不能跑」转向「先看适不适合」? - 2020年至2024年,大语言模型能力提升伴随计算、内存和部署成本上升,资源受限的移动与边缘设备部署压力增加,小模型因此在端侧和边缘场景获得持续采用,其研究动因被明确指向资源受限条件下的部署需求[1-3] - 2024年的研究综述指出,端侧部署的核心矛盾在于大语言模型计算开销高与移动设备、边缘硬件资源约束强之间的矛盾,小模型的重要性与其能以较低资源开销在本地完成推理直接相关[1-4][1-5][1-6] - 2025年以后,随着小模型能力提升,其在部分通用任务上开始具备明确的任务可用性,系统对小模型的判断标准从部署可行性转向任务适配性和环节分工,例如先进小模型在部分任务上的结果已超过某些7B级模型[1-7] - 判断标准变化后,模型分配进入系统设计,小模型角色从“资源约束下的可运行组件”转向“按任务能力配置的执行单元”,选择依据从可运行性转向任务链路适配性,例如在GPT-5.4使用指南中,nano模型用于分类、抽取等高频结构化任务,mini模型用于子任务和工具使用[1-8][1-9][1-10] 小模型为什么更容易在 Agent 系统中「定岗」? - 小模型开始稳定承担具体任务后,系统设计焦点从“能不能用小模型”转变为“哪些环节该交给小模型”,模型分配进入链路设计,小模型由资源受限场景中的可运行组件转向工作流中的执行单元[5] Agent 系统的模型选择逻辑在如何变化? - 随着小模型能力提升,模型在系统中的使用方式发生变化,从资源受限条件下的可运行选择转为按任务能力配置的执行单元,这一转向推动Agent系统拆分工作流并重新分配模型位置[1] - 模型选择逻辑由单一模型选择转向面向整体流程的编排,当任务链路被拆开后,模型选择从单次取舍走向整体编排[2]