大模型商业化
搜索文档
未知机构:我们的大模型商业化周报来啦411417一Anthro-20260420
未知机构· 2026-04-20 09:20
行业与公司 * **行业**:人工智能大模型行业 [1] * **涉及公司**:Anthropic、OpenAI、Gemini (Google)、字节跳动 (豆包/Dola、火山引擎、BytePlus)、通义 (阿里云)、智谱 [1] 核心观点与论据 * **行业竞争激烈,各公司加速产品迭代与商业化** * Anthropic 发布 Claude Opus 4.7,并为 Claude 系列产品推出多项新功能,包括思考层级、任务预算、代码助手增强等 [1] * OpenAI 发布面向生命科学的 GPT‑Rosalind,更新 Codex 和 Agents SDK,并计划推出面向企业用户和高价值专业工作的新模型 [1] * Gemini (Google) 与五角大楼谈判机密部署,推出 Mac 桌面版、CLI 子代理功能及文本转语音模型 [1] * 通义 开源新模型,发布 3D 世界模型和 AI 开发工具,同时为控制成本取消 Qwen OAuth 免费额度 [1] * **企业市场成为竞争焦点,合作与竞争并存** * OpenAI 明确将重点转向企业用户,并强调与 Amazon 的合作,同时指出与 Microsoft 的合作在一定程度上限制了为企业客户提供服务的能力 [1] * Anthropic 推出新的网络安全验证计划 (Cyber Verification Program),OpenAI 也扩大了其网络安全可信访问计划并推出 GPT-5.4-Cyber [1] * Google 与五角大楼谈判将 Gemini 部署到机密环境 [1] * **算力与成本压力显现** * OpenAI 称其计划到 2030 年拥有 30 吉瓦计算量,并指出 Anthropic 预计到 2027 年底大约为 7 到 8 吉瓦,暗示后者在算力投入上存在战略失误 [1] * 智谱 由于算力资源紧张,对 GLM Coding Plan 进行限时退款 [1] * 通义 为控制成本,取消 Qwen OAuth 免费额度 [1] * **海外市场拓展与用户增长显著** * 字节跳动的豆包海外版 Dola 在 2026 年第一季度单季下载量达 7200 万次以上,环比增长 47%,累计下载量超过 2 亿次,3 月平均 DAU 近 1200 万 [1] * 字节跳动的火山引擎与 BytePlus (海外) 同步上线 Seedance 2.0 系列 API 服务 [1] 其他重要内容 * **公司间存在公开质疑** * OpenAI 对竞争对手 Anthropic 此前宣布的 300 亿美元年化收入提出质疑,称其存在约 80 亿美元的“高估” [1] * **产品形态向桌面端与专业工具延伸** * Anthropic 发布重新设计的 Claude Code 桌面应用及 Claude for Word [1] * Gemini 首次推出 Mac 桌面版 [1] * 通义 ATH 事业群发布旗下首款 AI 开发工具 Meoo [1]
大模型商业化-海外模型定价重构
2026-04-13 14:13
大模型商业化与行业动态分析 一、 行业与公司 * 涉及的行业为**大模型/人工智能**行业,具体包括大模型开发、API服务、Agent(智能体)应用及算力基础设施[1] * 涉及的**公司**包括: * **海外公司**:Anthropic、谷歌(Google)、OpenAI[2][7] * **国内公司**:阿里巴巴(通义千问)、Kimi、DeepSeek[1][4][7] 二、 核心观点与论据 **1. 海外厂商调整计费模式,旨在缓解算力压力并构建生态闭环** * Anthropic与谷歌限制订阅账户授权第三方框架,强制切换至按量付费API[1][2] * 核心原因是**算力资源紧张**,需优先保障官方产品及正规API用户的服务质量,遏制通过订阅模式变相“白嫖”算力[2] * 旨在**收拢和强化官方生态**,将用户引导至自家产品(如Claude Code、Claude CoWork、NotebookLM),加强生态闭环[2] * 存在**门户之争的竞争因素**,OpenClaw创始人加入OpenAI后,谷歌与Anthropic相继跟进限制[2] **2. 计费模式向精细化、多样化演进** * 谷歌推出**Gemini API分层定价**,包含Flex(半价)、Priority(溢价75%-100%)、Standard、Batch和Caching共5档模式[1][3] * Flex模式适用于后台思考、批量处理等非实时任务,价格为标准价的一半[3] * Priority模式适用于聊天机器人、金融风控等低延迟任务,价格溢价75%-100%[3] * 这标志着**算力计费进入精细化阶段**,为开发者提供根据任务特性选择不同成本和性能组合的灵活性[1][3] **3. 国内厂商采取开放生态策略,与海外形成差异化** * 国内厂商普遍采取**开放和积极的态度**,全面拥抱OpenAI Cloud等第三方生态[7] * 例如,Kimi的KimiChat 2.5主动支持LangChain,并被OpenAI Cloud纳入官方推荐[7] * 阿里巴巴的Qwen 3.6 Plus**全面适配OpenClaw等第三方框架**,与海外闭源生态形成差异化[1][4] * 国内厂商更接近于**MaaS(Model as a Service)服务模式**,力图融入用户实际工作流,与海外构建封闭产品生态的路径形成对比[7] **4. 阿里巴巴发布多款新模型,强化多模态与Agent能力** * **Qwen 3.6 Plus**:定位为原生支持多模态与Agentic Coding的基座模型[1][4] * 支持**100万Token**超长上下文窗口,引入“preserve_thinking”功能以保留思维内容,特别适用于构建智能体任务[4] * 编程能力接近Claude 4,综合水平据评估在Claude 4之上[1][5] * 定价为每百万Token 4元,现提供五折优惠至2元,相较于3.5版本0.8元的定价有显著提升[1][5] * 发布当日在OpenRouter平台的日调用量突破**1.4万亿Token**,刷新该平台单日单模型调用记录[4] * **Qwen 3.5 Omni**:定位为端到端的全模态理解模型[5] * 参数量为32B,采用MoE架构,单次推理可激活4.2B参数[5] * 在多项评测中表现已超越Gemini 3.1 Pro[5] * 核心优势在于原生音频理解能力和极具竞争力的API成本,输入定价为每百万Token **0.4元**[5] * **Qwen-Vision 2.7-Image**:专注于多模态生成能力,与千问系列形成互补[5] * 提升了对生成图像的精细化控制力,注重面部多样性与人物真实感,推出“调色盘”功能[5] * 改善超长文本渲染能力,支持局部图像编辑、多图生成和多主体一致性[5][6] * 支持作为Skills接入OpenAI Cloud生态,对标产品是Midjourney[6] **5. 行业影响:成本压力推动架构进化与开源模型接受度提升** * **成本压力倒逼Agent框架向精细化进化**:用户成本上升将推动框架开发者改进上下文管理、最大化Prompt缓存命中率与复用率,削减无效Token消耗[3] * **推动开源模型接受度提升**:付费闭源模型在Agent场景下成本增加,使得独立部署开源模型的性价比优势凸显[3] * Web-based Coding降低开发门槛,可能带动对**NAS服务器、C端推理算力租赁**等灵活、专业推理算力需求的增长[3] * DeepSeek V4等**高性能开源模型**备受期待[3] **6. 国内推出“Coding Plan”套餐,短期冲量中长期利好算力** * “Coding Plan”是国内厂商针对LangChain应用推出的一种**Token使用套餐**,通过订阅形式支持用户调用API[1][8] * 与海外多样化的计费模式不同,海外尚未出现专门针对LangChain或Agent应用的此类套餐[8] * **短期影响**:通过低价订阅套餐,可以迅速增加模型的Token调用量[1][8] * **中长期影响**:Agent框架尚不成熟,存在大量Token浪费,消耗巨大。这种模式会极大地消耗算力资源,从而对**云厂商及上游算力提供商形成利好**[1][8] 三、 其他重要内容 * 国内模型的升级方向普遍围绕**Agent能力**进行迭代,其低廉的价格和为Agent使用场景优化的设计,使其在LangChain框架下具备较强适用性[7] * 国内厂商积极融入第三方生态的策略,反过来也**加速了国产大模型在Agent方向的迭代速度**[7] * 阿里方面透露,近期还将发布性能更强的**Qwen 3.6 MAX**版本以及其他小尺寸的开源版本[5] * 需要密切关注在Agent盛行的趋势下,**国内大模型的订阅体系将如何演变**[8]
大模型商业化周报:海外模型定价重构
浙商证券· 2026-04-06 16:24
行业投资评级 - 行业评级为“看好”,且维持此评级 [2] 报告核心观点 - 大模型行业延续“密集发布+定价重构”的双线节奏 [1] - 供给端,国内外厂商产品快速迭代,覆盖全模态、图像生成、高性能基座及开源模型,并构建从模型层到基础设施层的商业化闭环 [2] - 需求端,领先厂商的付费与计费结构整体趋势指向从订阅/席位制向按实际消耗量迁移,以更好适配Agent场景下用量波动较大的特征 [2] 国内厂商动态总结 - **通义(阿里巴巴)**:一周内密集发布三款模型,产品迭代迅速 [2] - Qwen 3.6 Plus作为新一代基座模型,发布当日平台日调用量突破1.4万亿Token,刷新OpenRuter单日单模型调用纪录 [2] - Qwen3.5-Omni在多项多模态评测中超越Gemini-3.1 Pro [2] - Wan2.7-Image尝试用单一模型覆盖图像生成全链路场景 [2] - 综合来看,通义在模型层的产品节奏和生态拉动能力在国内头部厂商中处于较领先位置 [2] - **智谱**:发布首个多模态Coding基座模型GLM-5V-Turbo,深度适配Agent工作流 [2] - 2025年全年实现收入7.24亿元,同比增长131.9% [2] - 云端部署收入1.90亿元,同比增长292.6% [2] - 本地化部署收入5.34亿元,同比增长102.3% [2] - 用户生态覆盖全球218个国家和地区,MaaS平台注册用户突破400万,付费开发者(Coding Plan)达24.2万 [2] - 中国前十大互联网公司中已有9家深度集成GLM系列模型 [2] - 3月推出的Claw Plan上线2天订阅用户破10万,上线20天订阅用户破40万 [2] - 2026年2月主动上调Coding Plan价格30%并取消首购优惠,MaaS平台API调用定价较2025年底提升83%,市场呈现供不应求态势,量价齐升趋势显现 [2] - **MiniMax与Kimi(月之暗面)**:本周均未有重要产品发布 [2] 国外厂商动态总结 - **Anthropic**:自4月4日起调整订阅政策,第三方工具调用权限从订阅中剥离,用户需单独购买额度包或使用API Key [2] - 因代码意外泄露,曝光了包括24小时自主代理KAIROS和AI电子宠物BUDDY在内的多项未发布功能 [2] - 泄露代码显示其技术栈融合了Prompt Engineering、Context Engineering和Harness Engineering三层范式,公司正从模型能力提供商向端到端Agent平台方向持续探索 [2] - **OpenAI**:完成1,220亿美元最新融资,投后估值达8,520亿美元,并首次从个人投资者处筹集资金,该估值水平已接近部分全球头部科技公司市值 [2] - 产品端,Codex更新定价策略,新增按用量计费并下调团队年费,与Anthropic的调整方向趋同 [2] - **Google**:以三条线同步推进,构建商业化闭环 [2] - Gemma 4开源家族覆盖四种规格,其中31B模型在Arena AI排行榜排名第3,26B模型排名第6,超越了20倍于其大小的模型 [3] - Veo 3.1 Lite以0.05美元/秒(720p)的价格切入视频生成市场,仅为标准版的1/8 [3] - 推出Gemini Flex/Priority推理分层,Flex API定价为标准API的50%,Priority API则上浮75–100%,为不同场景提供成本与延迟之间的显性权衡 [3]
大模型商业化周报:海外模型定价重构-20260406
浙商证券· 2026-04-06 15:52
报告行业投资评级 - 行业评级为“看好”,且为“维持” [2] 报告的核心观点 - 本周大模型行业延续“密集发布+定价重构”的双线节奏 [1] - 供给端,厂商产品快速迭代,并构建从模型层到基础设施层的商业化闭环 [2] - 需求端,付费模式整体趋势指向从订阅/席位制向按实际消耗量迁移,以适配Agent场景下用量波动较大的特征 [2] 国内厂商动态 - **通义(阿里巴巴)**:一周内密集发布三款模型。Qwen 3.6 Plus发布当日平台日调用量突破1.4万亿Token,刷新OpenRuter单日单模型调用纪录 [2]。Qwen3.5-Omni在多项多模态评测中超越Gemini-3.1 Pro [2]。Wan2.7-Image尝试用单一模型覆盖图像生成全链路场景 [2] - **智谱**:发布首个多模态Coding基座模型GLM-5V-Turbo,深度适配Agent工作流 [2]。2025年全年实现收入7.24亿元,同比增长131.9% [2]。其中云端部署收入1.90亿元,同比增长292.6%;本地化部署收入5.34亿元,同比增长102.3% [2]。MaaS平台注册用户突破400万,付费开发者(Coding Plan)达24.2万 [2]。中国前十大互联网公司中已有9家深度集成GLM系列模型 [2]。3月推出的Claw Plan上线2天订阅用户破10万,上线20天破40万 [2]。2026年2月主动上调Coding Plan价格30%,MaaS平台API调用定价较2025年底提升83% [2] - **MiniMax与Kimi(月之暗面)**:本周均未有重要产品发布 [2] 国外厂商动态 - **Anthropic**:自4月4日起调整订阅政策,第三方工具调用权限从订阅中剥离,用户需单独购买额度包或使用API Key [2]。因代码泄露,曝光了包括24小时自主代理KAIROS和AI电子宠物BUDDY在内的多项未发布功能 [2] - **OpenAI**:完成1,220亿美元最新融资,投后估值达8,520亿美元,并首次从个人投资者处筹集资金 [2]。Codex更新定价策略,新增按用量计费并下调团队年费 [2] - **Google**:开源Gemma 4家族,其中31B模型在Arena AI排行榜排名第3,26B模型排名第6 [3]。推出Veo 3.1 Lite视频生成模型,定价为0.05美元/秒(720p),仅为标准版的1/8 [3]。推出Gemini Flex/Priority推理分层,Flex API定价为标准API的50%,Priority API则上浮75–100% [3]
报告征集 | 2026年中国银行业智能体发展研究报告
艾瑞咨询· 2026-03-20 08:08
研究背景与核心观点 - 智能体技术是大模型商业化落地的关键形态,正在重构银行服务与运营模式,成为银行业数智化转型的核心驱动力 [2] - 智能体已逐步渗透至零售金融、公司金融、风险管理、运营管理等银行核心领域 [2] - 多智能体协作、行业垂类智能体等创新方向正在加速落地 [2] - 尽管面临技术稳定性、合规风控、组织适配等挑战,但技术迭代与业务需求的深度融合已展现显著价值 [2] - 随着大模型能力持续进化、监管规则逐步明晰,银行智能体有望在个性化财富管理、实时风险预警、跨场景业务协同等领域打开新增长空间,驱动银行业向智能化、生态化的高阶形态发展 [2] 报告研究内容与结构 - 报告将划分银行智能体发展阶段,结合专家访谈、公开数据与测算模型分析落地规模及特征 [4] - 报告将梳理银行智能体落地场景图谱并分析应用价值,同时结合问卷调研明确行业落地难点 [4] - 报告将明确智能体在银行业的落地框架,分析各环节的核心需求与执行重点,为行业从业者明晰落地实践路径 [5] - 报告将为厂商梳理银行业的实际需求与落地难点,最终形成专业的落地参考体系 [5] - 报告将研判银行智能体行业未来发展趋势并进行解读,说明其合理性与重要性,为行业机构布局提供专业参考 [6] - 报告将选取行业内表现突出、具备创新特征的银行及厂商案例,拆解其核心业务场景、解决方案与实现价值,提炼可复用的实践经验 [7] - 报告将邀请业内专家研讨行业趋势,提炼核心观点并以“专家名片 + 专家观点”形式呈现,搭建行业交流平台 [8] 报告时间规划 - 报告选题研究阶段为2026年2月 [14] - 报告大纲制定阶段为2026年3月 [14] - 厂商征集时间为2026年3月20日至2026年4月20日 [14] - 企业访谈与市场调研在2026年3月至4月进行 [14] - 报告计划于2026年第二季度发布 [14] 参与价值与方式 - 参与企业有机会入选报告典型案例与专家之声展示,提升品牌知名度和行业影响力 [10] - 报告将通过艾瑞网官网和艾瑞咨询公众号发布,并有多家链接媒体渠道传播 [10] - 参与企业有机会受邀参加艾瑞在金融智能体领域的线上、线下活动,与业内甲方、行业专家、投资机构等进行深度交流 [11] - 本次案例与专家征集自即日起,截至4月20日 [13]
算力新变量-CPO-LPU-算电协同
2026-03-16 10:20
**行业与公司** * **行业**:人工智能、云计算、大模型、算力基础设施、光通信、半导体、数据中心、电力IT * **公司**:腾讯云、英伟达、Oracle、Meta、Groq **核心观点与论据** **一、 大模型与云计算行业:商业化拐点已至,行业集中度将提升** * 腾讯云于2026年3月11日调整价格,结束部分国产模型的免费公测并上调腾讯混元系列模型的推理价格[2] * 此举标志着头部厂商战略从抢占市场份额转向提升盈利能力,国内大模型市场的免费红利期可能在2026年逐步结束[1][2] * 价格上调反映了上游算力资源的稀缺性,确认了未来算力需求的紧迫性和确定性[2] * 对下游应用行业将产生分化影响:头部SaaS厂商可传导成本压力,而议价能力弱的小厂商竞争力可能被削弱[2] **二、 算力基础设施技术演进:CPO与LPU成为新变量** 1. **CPO技术规模化在即,将重塑光通信与交换机格局** * 全球首款CPO交换机英伟达Quantum X800已于2025年下半年面世,搭载4颗ASIC芯片和多个1.6T CPO光引擎[2][3] * Oracle和Meta等公司已开始采用此项技术[3] * 预计2026-2027年将在云计算厂商中实现规模化商用部署[1][3] * 到2029年,3.2T CPO的渗透率预计达到50.6%[1][3] * CPO技术能显著优化算力成本,利好下游云厂商和模型厂商[3] 2. **LPU即将发布,主攻低延迟推理场景** * 市场预期英伟达将在GTC大会上发布首款LPU产品[4] * LPU核心技术在于采用SRAM存储模型参数,而非HBM,其230MB片上SRAM可提供高达80TB/s的内存带宽[1][4] * 产品预计以整机机架形式出现,单机架可能搭载256个LPU单元[5] * 将重点面向需要规模化和低延迟的AI推理应用场景[1][5] * LPU的发布有望加速推理算力的需求增长[5] **三、 宏观政策与战略:“算电协同”成为国家战略** * “算电协同”首次被写入政府工作报告,标志着算力与电力融合发展上升至国家战略层面[5] * 将进一步加强“东数西算”战略的推进,利好拥有丰富绿色电力资源的西部地区IDC公司[1][5] * 电力IT领域的软件公司将受益,算力协同调度场景中AI监测、AI控制等产品需求可能增加[1][5] **四、 国内算力市场格局:进入国产主导新阶段** * 2026年,国内算力行业从“国产算力元年”进入“中国算力元年”新阶段[6] * 国产算力的供给能力出现数倍的边际增长,其市场空间和占比已超过英伟达在国内的市场[1][6] * 行业从依赖海外芯片为主,转变为以国产芯片为主导的市场环境[6] * 投资机会从半导体环节扩散至服务器、交换机、存储、IDC及云计算等全产业链[1][6] **其他重要内容** * 英伟达在2025年GTC大会上首次发布了三款Scale-Out交换机[2] * 市场推测英伟达LPU产品可能会集成到其“飞马”(B100)GPU之上[4] * LPU的推出与英伟达在2025年12月同Groq达成的独家专利与人才许可协议有关[4] * 在Scale-up需求场景下,CPO技术的潜力预计会更高[3]
林俊旸,只恨不是梁文锋
投中网· 2026-03-05 14:49
文章核心观点 - 阿里大模型核心负责人林俊旸离职,标志着公司AI战略从以技术研发和开源生态建设为核心,转向以C端用户增长和商业化落地为优先,这反映了行业竞争已进入依赖流量、资本和商业化的新阶段[5][6][11][13] - 林俊旸的离职源于与公司在战略方向上的根本分歧:其团队专注于模型底层研发与开源生态,而阿里当前需要将资源向C端产品整合与商业化收入倾斜,这种“产模分离”模式难以为继[6][7][10][12][14] - 行业竞争逻辑已彻底改变,从比拼技术能力和开源口碑的初期阶段,进入了大厂间流量、生态、资本和商业化能力的全面竞争,技术研发必须服务于商业战略[11][13] 阿里战略与组织调整 - 阿里进行组织调整,将AI品牌统一为“千问”并直接向集团CEO汇报,目的是打破“产模分离”,实现研发、产品、商业化的全链路闭环,资源重心向C端倾斜[11] - 通义实验室计划将Qwen团队从垂直整合拆分为预训练、后训练等水平分工团队,这缩小了林俊旸的管理权限,与其坚持的紧密整合理念冲突[6] - 有传言称阿里计划将未来Qwen旗舰模型全面转向闭源以实现高效商业化,这与林俊旸坚持开源领先的“初心”相悖[7] 林俊旸的贡献与团队方向 - 林俊旸是阿里最年轻的P10,全程主导了Qwen系列开源大模型的架构设计与迭代研发,是国内大模型领域公认的顶尖技术专家[5][7] - 在其带领下,团队跑出了差异化优势,做出了国内综合竞争力最强的开源大模型体系之一,包括Qwen-7B、14B、72B及多模态Qwen-VL系列[9] - Qwen系列开源后累计下载量达数亿次,长期位居国内外主流开源平台下载榜前列,成为国内大量中小厂商、创业公司和科研机构的核心底座,是国内大模型开源生态的核心支撑之一[9] - 该团队核心方向明确:聚焦模型底层研发,以生态广度反哺阿里云长期增长,接受商业回报周期拉长,不直接承担C端产品商业化KPI[9] 行业竞争格局变化 - 2026年春节,国内头部厂商掀起投入几十亿元的流量大战,彻底改写了行业格局,中国AI模型的Token使用量首次超越美国头部模型[11] - 行业竞争进入深水区,商业化路径变得清晰,例如Kimi发布K2.5模型后不到一个月的收入就超过去年全年营收[11] - 阿里虽然在企业级市场与开源圈拥有Qwen这一核心资产,但在C端战场的竞争维度不同,表现可能未达集团预期[11] - 资本市场已不再为夸张的资本支出买单,阿里股价从180跌至130,公司必须拿出真实的用户数据与商业化成绩[14] 理念冲突与影响分析 - 核心理念冲突在于:技术人员认为底层基模性能突破与开源生态是长期核心壁垒,而公司认为当前阶段用户规模与商业化落地才是核心指标[12] - 将核心算力与研发精力向C端产品功能迭代倾斜,会打乱基模研发节奏,大量产品化需求可能打破原有技术迭代规划,动摇开源优先的基础[12] - 核心负责人离职可能影响Qwen后续技术迭代节奏,甚至导致阿里在大模型核心技术上掉队[14] - 对阿里而言,调整是理性且必然的,推进产研一体化是必须迈出的一步,即便付出失去核心技术人才的代价[14] 后续发展与行业启示 - 对阿里而言,考验在于如何稳住团队、保证技术迭代、平衡商业化与长期技术壁垒、协调开源与旗舰模型的资源分配[15] - 对林俊旸等顶尖技术人才而言,离开大厂并非终点,顶级大模型研发人才仍是行业最稀缺的核心资源,市场机会广阔[15] - 事件标志着靠技术能力和开源口碑就能拿到行业话语权的初创阶段已经过去[13] - 技术天才与大厂商业战略的博弈持续存在,类似冲突在国外大模型公司也已多次上演,人才的离开往往推动行业新一轮创新与变革[13][15]
全球首份大模型业绩报!MiniMax预判2026三大超级PMF,AI平台公司启程了
量子位· 2026-03-03 09:59
文章核心观点 - 全球首份大模型公司年报为洞察大模型商业化路径及中国AI公司全球竞争力提供了可量化的财务样本 [2] - 公司通过“C端+B端”双轮驱动,实现了营收高速增长、亏损率显著收窄及毛利率大幅提升,商业化进程加速 [4][5][6][13] - 公司正从一家大模型公司向“AI平台型公司”全面升级,以智能密度与模型吞吐为核心,瞄准编程、办公及多模态创作等领域的超级产品市场契合度 [47][49] 财务表现与商业化进展 - 2025年总营收达7904万美元,同比增长158.9%,其中超70%收入来自国际市场 [4] - 2025年经调整净亏损为2.5亿美元,净亏损率已大幅收窄 [5] - 收入结构分为C端AI原生产品和B端开放平台/企业服务,2025年两者占比分别为67.2%和32.8% [7][8] - C端AI原生产品收入5308万美元,同比增长143%,累计服务超2.36亿用户,覆盖超200个国家及地区 [8] - B端开放平台及企业服务收入2596.3万美元,同比增长197.8%,拥有超21.4万企业客户及开发者,覆盖超100个国家及地区,超50%收入来自海外 [9][12] - 2025年毛利为2008万美元,同比飙升437%,毛利率从2024年的12.2%提升至2025年的25.4% [14][15] - 毛利提升主要得益于模型及系统效率提升、基础设施配置优化 [17] - 2025年研发开支2.5亿美元,同比增长33.8%,研发开支占总营收比重从2024年的619%降至2025年的320%,显示研发效率提升 [19] - 截至2025年末,公司现金储备为10.5亿美元,高于2024年末的8.8亿美元 [21] 技术与产品迭代 - 公司构建了全模态研发能力,在语言、视频、语音、音乐等主要模态均拥有具备全球竞争力的模型 [23] - 2025年第四季度至2026年年初的108天内,连续完成M2、M2.1、M2.5三代语言模型产品更新,展现行业领先的迭代速度 [23] - M2模型打破了智能水平、运行速度与算力成本的不可能三角,并在实际模拟交易场景中取得成果 [26][27] - M2.1模型在多语言编程上取得全球SOTA,补齐了Vibe Coding的短板 [29] - M2.5模型主打代码与智能体能力,变得更轻、更快、更省钱,推理速度可达100TPS,作为智能体运行一小时成本约1美元,并被Notion Custom Agents引入 [31][32] - 文本模型驱动的生产力场景增速明显,2026年2月M2系列文本模型平均单日token消耗量已增至2025年12月的超6倍,其中来自CodingPlan的token消耗量增长超10倍 [10] - 2026年2月,开放平台新注册用户数达到2025年12月的4倍以上 [11] - MiniMax Agent平台在2026年1月上线2.0版本,推出桌面版,可深度融入本地工作环境 [35] - 同期上线的Experts系统允许用户通过任务场景知识和工作流创建垂直领域专家 [36] - 春节后Agent平台再次更新,Experts系统社区应用数量已破万,并推出MaxClaw模式简化云端部署 [37] 行业趋势与公司战略展望 - 大模型赛道迭代加速,竞争激烈,市场瞬息万变 [38] - 未来能胜出的AI公司需是技术、产品、商业化综合实力过硬的组织,而非纯技术提供商 [39] - 竞争焦点从“跑分”转向在真实商业环境中取得结果 [40][41] - 公司认为2026年将涌现几个超级产品市场契合度,应用层将迎来巨大创新窗口期,多模态AI公司的Token消耗量级可能出现1-2个数量级的增长 [45][46] - 公司正从“大模型公司”全面升级为“AI平台型公司”,以智能密度与模型吞吐为核心指标,推动AI成为新一代生产基础设施 [47] - “AI平台型公司”的价值可估算为智能密度×Token吞吐,有能力定义智能边界并享受其商业红利的公司将胜出 [49] - 公司瞄准三大超级PMF领域:编程领域(AI编程将迈向L4-L5级智能)、办公领域(各职业workspace场景)、多模态创作(生成“直出可交付”的中长内容) [50] - 公司正在研发的M3和Hailuo3系列模型,旨在持续优化推理架构与算力效率,以应对未来的技术挑战和规模需求 [47][51] - 2026年被视为AI从“工具时代”迈向“生态时代”的关键分水岭 [52]
计算机行业周报:本周行业小幅上涨,大模型商业化加速-20260302
国元证券· 2026-03-02 21:30
行业投资评级 - 报告对计算机行业给予“推荐”评级并维持 [5] 报告核心观点 - 报告核心观点认为,经过持续大规模投入,基础大模型成熟度持续提升,通过Token消耗量的快速增长,商业化已经开启,建议关注基础大模型厂商及具备应用落地的服务类公司 [3][20] 市场回顾与指数表现 - 本周(2026.2.24-2026.2.27)计算机(申万)指数小幅上涨0.62%,延续了春节前最后一周的上涨趋势 [1][10] - 同期,上证指数上涨1.98%,深证成指上涨2.80%,创业板指上涨1.05% [1][10] - 计算机行业细分板块表现分化:计算机设备指数上涨0.56%,IT服务Ⅱ指数上涨2.71%,软件开发指数下跌1.12% [1][13] - 个股方面,本周计算机板块上涨、回调和走平的个股数量分别为190、120和48只,涨幅前三名为*ST云创(29.55%)、海联讯(26.41%)、ST迪威迅(23.75%) [13] 行业重大事件 - **Meta算力战略调整**:Meta先后放弃两代自研训练芯片,转而与谷歌签署数十亿美元TPU租赁协议,并与英伟达达成数百万颗GPU交易、与AMD签署6吉瓦GPU协议以分散风险增加算力筹码 [16] - **DeepSeek技术突破**:DeepSeek与清华、北大合作发表DualPath推理系统,在离线场景实现1.87倍吞吐量提升,在线服务场景实现1.96倍吞吐量提升,已在1152个GPU集群上验证 [16] - **谷歌发布新图像模型**:谷歌发布新一代图像生成模型Nano Banana 2 (Gemini 3.1 Flash Image),API价格仅为上代Pro模型一半,其SynthID数字水印和C2PA内容凭证验证功能已被调用超2000万次 [16][17] - **Anthropic新增远程控制功能**:Anthropic为Claude Code新增Remote Control功能,用户可通过浏览器或手机远程连接本地运行的项目 [19] - **阿里开源新模型**:阿里开源千问3.5三款模型,其中Qwen3.5-35B-A3B已超越前代更大规模的Qwen3-235B-A22B,Qwen3.5-27B的Flash版本API每百万Token仅0.2元 [19] - **MiniMax推出Agent平台新模式**:MiniMax在Agent平台推出MaxClaw模式,对OpenClaw实现一键配置,20秒即可启动,其Expert社区已积累10000+公开专家智能体 [19] 重点公司公告(2025年度业绩快报) - **海光信息**:2025年实现营业总收入143.76亿元,同比增长56.91%;实现归母净利润25.42亿元,同比增长31.66% [2][19] - **智明达**:2025年实现营业总收入7.09亿元,同比增长61.87%;实现归母净利润1.10亿元,同比增长466.74% [2][19] - **卓易信息**:2025年实现营业总收入3.38亿元,同比增长4.42%;实现归母净利润0.82亿元,同比增长150.05% [2][19] - **金山办公**:2025年实现营业总收入59.29亿元,同比增长15.78%;实现归母净利润18.43亿元,同比增长12.03% [2][19] 投资逻辑与行业动态 - 全球最大的模型聚合平台OpenRouter数据显示,来自中国的MiniMax M2.5、DeepSeek V3.2、Kimi K2.5与智谱GLM-5进入总Token消耗量全球前十名,其中MiniMax M2.5位列第一,这是中国AI模型首次在第三方聚合平台上实现对美国模型的集群式反超 [3][20] - 生成式大模型在编程、视频等领域的应用日益成熟,推动Token消耗量快速增长 [3][20] - 大模型公司月之暗面(Kimi)旗下K2.5大模型发布不到一个月,其近20天累计收入已超过2025年全年总收入 [3][20]
智谱、MiniMax,合计蒸发近千亿市值
第一财经资讯· 2026-02-23 18:17
核心观点 - 港股大模型公司智谱与MiniMax股价在近期经历暴涨后大幅回调 直接导火索是智谱GLM-5模型发布后因运营保障能力不足导致算力挤兑和服务问题 暴露了模型厂商在技术发布、商业化预期与运营能力之间的错位[2][3][4] - 市场对大模型公司的评估焦点正从单一的模型性能转向商业化运营、服务稳定性、成本控制及算力保障等综合能力[5] 公司股价与市场表现 - 2026年2月23日 智谱股价单日下跌22.76% MiniMax下跌13.35% 与恒生指数及恒生科技指数的高开高走形成反差[2] - 相较于2026年2月20日的市值高点 两家公司市值已合计蒸发近千亿港元[2] - 智谱股价从1月8日116.2港元的发行价 最高飙升至2月20日的725港元 累计涨幅达524%[4] - MiniMax股价从1月9日165港元的发行价 最高冲至2月20日的970港元 累计涨幅达488%[4] 智谱运营事件与财务表现 - 智谱在发布GLM-5模型后发生算力挤兑 官方于2月21日发布致歉信 承认在规则透明度、灰度节奏及老用户升级机制上存在错误[3] - 事件起因是GLM-5发布后流量超出预期 但扩容节奏未能跟上[3] - 在算力挤兑事件前 智谱因GLM Coding Plan需求强劲 已于2月12日宣布取消首购优惠并涨价 套餐价格整体涨幅自30%起[3] - 财务数据显示 智谱过去三年经调整净亏损分别为0.97亿、6.21亿以及24.66亿元人民币[4] MiniMax财务表现与行业共性问题 - MiniMax在2022年、2023年、2024年及2025年前三个季度 年度亏损分别为7370万美元、2.69亿美元、4.65亿美元及5.12亿美元 近四年累计亏损约13.2亿美元(约合人民币92.9亿元)[4] - 智谱与MiniMax共同面临训练成本高昂、持续亏损、算力基础设施有待完善等问题[4] 行业趋势与评估标准演变 - 行业分析认为 2026年商业化将是大模型公司的关键命题[5] - IDC数据显示 2025年全球企业级AI采购中 仅17%以“评测分数”为核心依据 68%更关注场景适配性、服务稳定性与成本控制能力[5] - 模型性能不再是衡量大模型公司能力的单一指标 “好用”的前提是“能用” 模型落地应用能力、稳定算力供给及优质开发者体验成为评判企业综合实力的新标尺[5] - 对比全球领先企业Anthropic 其年度经常性收入从2023年的1亿美元增长至2026年2月的140亿美元 估值达3800亿美元 凸显了商业化运营能力的重要性[5]