通义千问 Qwen3.6 Plus
搜索文档
大模型商业化-海外模型定价重构
2026-04-13 14:13
大模型商业化与行业动态分析 一、 行业与公司 * 涉及的行业为**大模型/人工智能**行业,具体包括大模型开发、API服务、Agent(智能体)应用及算力基础设施[1] * 涉及的**公司**包括: * **海外公司**:Anthropic、谷歌(Google)、OpenAI[2][7] * **国内公司**:阿里巴巴(通义千问)、Kimi、DeepSeek[1][4][7] 二、 核心观点与论据 **1. 海外厂商调整计费模式,旨在缓解算力压力并构建生态闭环** * Anthropic与谷歌限制订阅账户授权第三方框架,强制切换至按量付费API[1][2] * 核心原因是**算力资源紧张**,需优先保障官方产品及正规API用户的服务质量,遏制通过订阅模式变相“白嫖”算力[2] * 旨在**收拢和强化官方生态**,将用户引导至自家产品(如Claude Code、Claude CoWork、NotebookLM),加强生态闭环[2] * 存在**门户之争的竞争因素**,OpenClaw创始人加入OpenAI后,谷歌与Anthropic相继跟进限制[2] **2. 计费模式向精细化、多样化演进** * 谷歌推出**Gemini API分层定价**,包含Flex(半价)、Priority(溢价75%-100%)、Standard、Batch和Caching共5档模式[1][3] * Flex模式适用于后台思考、批量处理等非实时任务,价格为标准价的一半[3] * Priority模式适用于聊天机器人、金融风控等低延迟任务,价格溢价75%-100%[3] * 这标志着**算力计费进入精细化阶段**,为开发者提供根据任务特性选择不同成本和性能组合的灵活性[1][3] **3. 国内厂商采取开放生态策略,与海外形成差异化** * 国内厂商普遍采取**开放和积极的态度**,全面拥抱OpenAI Cloud等第三方生态[7] * 例如,Kimi的KimiChat 2.5主动支持LangChain,并被OpenAI Cloud纳入官方推荐[7] * 阿里巴巴的Qwen 3.6 Plus**全面适配OpenClaw等第三方框架**,与海外闭源生态形成差异化[1][4] * 国内厂商更接近于**MaaS(Model as a Service)服务模式**,力图融入用户实际工作流,与海外构建封闭产品生态的路径形成对比[7] **4. 阿里巴巴发布多款新模型,强化多模态与Agent能力** * **Qwen 3.6 Plus**:定位为原生支持多模态与Agentic Coding的基座模型[1][4] * 支持**100万Token**超长上下文窗口,引入“preserve_thinking”功能以保留思维内容,特别适用于构建智能体任务[4] * 编程能力接近Claude 4,综合水平据评估在Claude 4之上[1][5] * 定价为每百万Token 4元,现提供五折优惠至2元,相较于3.5版本0.8元的定价有显著提升[1][5] * 发布当日在OpenRouter平台的日调用量突破**1.4万亿Token**,刷新该平台单日单模型调用记录[4] * **Qwen 3.5 Omni**:定位为端到端的全模态理解模型[5] * 参数量为32B,采用MoE架构,单次推理可激活4.2B参数[5] * 在多项评测中表现已超越Gemini 3.1 Pro[5] * 核心优势在于原生音频理解能力和极具竞争力的API成本,输入定价为每百万Token **0.4元**[5] * **Qwen-Vision 2.7-Image**:专注于多模态生成能力,与千问系列形成互补[5] * 提升了对生成图像的精细化控制力,注重面部多样性与人物真实感,推出“调色盘”功能[5] * 改善超长文本渲染能力,支持局部图像编辑、多图生成和多主体一致性[5][6] * 支持作为Skills接入OpenAI Cloud生态,对标产品是Midjourney[6] **5. 行业影响:成本压力推动架构进化与开源模型接受度提升** * **成本压力倒逼Agent框架向精细化进化**:用户成本上升将推动框架开发者改进上下文管理、最大化Prompt缓存命中率与复用率,削减无效Token消耗[3] * **推动开源模型接受度提升**:付费闭源模型在Agent场景下成本增加,使得独立部署开源模型的性价比优势凸显[3] * Web-based Coding降低开发门槛,可能带动对**NAS服务器、C端推理算力租赁**等灵活、专业推理算力需求的增长[3] * DeepSeek V4等**高性能开源模型**备受期待[3] **6. 国内推出“Coding Plan”套餐,短期冲量中长期利好算力** * “Coding Plan”是国内厂商针对LangChain应用推出的一种**Token使用套餐**,通过订阅形式支持用户调用API[1][8] * 与海外多样化的计费模式不同,海外尚未出现专门针对LangChain或Agent应用的此类套餐[8] * **短期影响**:通过低价订阅套餐,可以迅速增加模型的Token调用量[1][8] * **中长期影响**:Agent框架尚不成熟,存在大量Token浪费,消耗巨大。这种模式会极大地消耗算力资源,从而对**云厂商及上游算力提供商形成利好**[1][8] 三、 其他重要内容 * 国内模型的升级方向普遍围绕**Agent能力**进行迭代,其低廉的价格和为Agent使用场景优化的设计,使其在LangChain框架下具备较强适用性[7] * 国内厂商积极融入第三方生态的策略,反过来也**加速了国产大模型在Agent方向的迭代速度**[7] * 阿里方面透露,近期还将发布性能更强的**Qwen 3.6 MAX**版本以及其他小尺寸的开源版本[5] * 需要密切关注在Agent盛行的趋势下,**国内大模型的订阅体系将如何演变**[8]