大模型
搜索文档
国投证券(香港)晨报-20260309
国投证券(香港)· 2026-03-09 15:03
核心观点 - 全球宏观环境受中东紧张局势与油价飙升影响,滞胀风险升温,市场避险情绪主导,短期波动格局难改,重点关注下周美联储议息会议对利率路径的指引 [2][5] - 港股市场出现弱反弹,但受外围市场走弱及地缘政治不确定性压制,反弹持续性存疑 [2] - 中国大模型行业呈现强劲增长势头,模型token调用量快速增长,头部公司业绩亮眼,技术迭代与商业化进展迅速 [7][8][10] 市场与宏观环境 - **港股表现**:上周五港股随外围情绪回暖反弹,恒生指数收升1.72%,国企指数涨2.09%,恒生科技指数涨幅达3.15%,全日成交额约2,928亿港元,南向资金净流出约22亿港元 [2] - **美股与宏观压力**:美股上周五全线下跌,道指跌0.95%,标普500降1.33%,纳指跌近1.6%,标普全周累计跌逾2%,2月美国非农就业人数意外减少9.2万,失业率升至4.4%,引发经济动能放缓忧虑 [3] - **地缘政治与油价**:美伊紧张局势升级,霍尔木兹海峡航运受限,WTI原油期货单日飙升逾12%,上周累涨超35%,创1983年以来最大单周涨幅之一,市场忧虑油价或进一步逼近每桶120美元 [4] - **滞胀风险与市场预期**:“经济放缓+油价飙升”组合推高滞胀风险,利率期货显示市场对美联储6月降息25个基点的预期接近五五开,避险情绪升温,VIX指数刷新近五个月高位 [5] 行业与板块动态 - **科技与互联网**:“京东系”集体上扬,京东集团业绩理想,京东物流盈利超预期,推动集团估值修复 [3] - **医药板块**:创新药、生物医药、CRO、互联网医疗及中医药概念股普遍上涨,政策层面将生物医药定义为“新兴支柱产业”,提出建立商业保险创新药目录,预示行业或迎来政策与资金双重支持 [3] - **资源与材料**:有色金属及黄金股如中国铝业、紫金矿业同步回落,光通信板块逆市调整 [3] - **高油耗板块**:航空、航运及邮轮股因油价飙升短线受压 [4] 大模型行业深度点评 - **行业增长趋势**:2026年2月全球token日均调用量较1月环比增69%,增速强劲,中国模型公司token调用量快速增长,受益于快速迭代、技术能力、性价比及开源生态 [7] - **MiniMax业绩表现**:2025年总收入7,900万美元,同比增159%,其中AI原生产品收入5,300万美元,同比增143%,开放平台及其他企业服务收入2,600万美元,同比增198%,毛利率从2024年的12%提升至25%,2026年2月ARR突破1.5亿美元,M2系列文本模型日均token消耗量超2025年12月的6倍 [8] - **智谱AI动态**:发布新一代基座模型GLM-5,在智能体和编程能力显着提升,实现与国产GPU摩尔线程MTT S5000适配,GLM Coding Plan套餐价格上调30%,反映技术高壁垒与议价能力 [9] - **阿里巴巴进展**:发布Qwen3.5系列模型,在全球开源模型基准测试中位列第3,据Frost&Sullivan数据,2025年下半年中国企业级大模型tokens日均调用量达37.0万亿,较上半年增长263%,其中阿里云Qwen份额第一,为32.1%,千问AI眼镜于3月8日现货发售 [10] - **投资前景**:中国大模型在开源领域优势持续强化,token调用量当前仍在早期阶段,未来有指数级增长潜力,在编程、Agent、办公等场景渗透有较高天花板 [10]
GenAI系列报告之71:从智谱IPO看当前大模型进展和投资机遇
申万宏源证券· 2026-03-09 13:29
大模型技术趋势 - 大模型技术范式已高度收敛至Decoder-Only+MoE架构,竞争焦点从“找路径”转向“卷效率”,核心工作在于数据与算法工程优化[3][5] - 2025年大模型货币化加速,核心变现方向为代码、多模态和智能体(Agent)[3][8] - 2026年重要技术方向预计为高效架构、多模态/世界模型、智能体执行力及安全合规[3][8] 市场竞争格局 - 形成海外闭源、国内开源为主的竞争格局,主流厂商逐渐缩圈,国内以互联网大厂和智谱、Minimax、DeepSeek、月之暗面等独立公司为代表[3] - 海外Top3模型(OpenAI、Anthropic、谷歌)在多个领域交替领先,差距不大;国产模型在代码等领域冲刺较快,性能接近海外顶尖水平[3][10] - 2026年1月,中国企业大模型日均tokens消耗达37万亿,前三名为通义千问、豆包和DeepSeek[9] 关键应用与商业化进展 - **AI编程**:Cursor在2025年底ARR达10亿美元,Claude Code至2026年2月ARR超25亿美元,市场价值提升空间巨大[20][21] - **多模态(视频生成)**:快手可灵在2025年Q1收入超1.5亿元人民币,3月ARR突破1亿美元,全球用户突破2200万[28] - **智能体(Agent)**:在复杂任务中成功率仍待提升,2026年重要方向包括多智能体系统、人机劳动力重组、慢思考+端侧操作及具身智能[33][36] 案例公司:智谱分析 - 智谱是国内领先的独立通用大模型开发商,2024年收入3.124亿元人民币,2025年上半年收入1.909亿元人民币,但处于高投入期,经调净利润为亏损[43][47] - 收入主要来自本地化部署(2025年上半年占比84.8%),毛利率较高(59.1%);云端部署处于发展初期,但增速快[42][47][54] - GLM-5模型在代码和Agent能力上出圈,在Arena Code榜单位列国内第一;尽管提价,其API调用量仍大幅提升,证明了性能驱动的涨价逻辑[3][78][81][82] - 公司凭借深厚清华背景,构建了覆盖全场景的模型矩阵和一站式MaaS平台,客户超8000家,并计划进军教育、医疗等行业[43][55][59][67] 投资机遇与风险 - 投资应关注原生大模型公司(如智谱、Minimax)及受益于模型能力的垂类行业应用公司[3] - 主要风险包括行业竞争加剧、技术迭代不及预期、商业化进展缓慢、数据质量与合规问题以及持续高研发投入导致利润承压[3][95][96][97][98]
3B打32B?海外病毒式传播的小模型,竟然来自BOSS直聘
机器之心· 2026-03-09 11:58
行业趋势:大模型军备竞赛与“小模型”的兴起 - 大模型行业正经历激烈的“军备竞赛”,开源与闭源阵营都在疯狂追求更大的参数量和算力,模型规模已膨胀至“近乎离谱”的程度 [1] - 过去GPT-2仅有约1.5B参数,如今GPT-4的参数规模估计已达万亿水平,GPT-5预计更大,而2026年发布的开源模型如Kimi K2.5和Ling 2.5也已达到万亿参数规模 [1][2] - 然而,“模型大就一定强”的定律正在动摇,一个仅3B参数的小模型在“50米洗车”等复杂推理问题上,表现超越了万亿级参数的大模型,凸显了模型能力与参数规模并非绝对正相关 [5][7] 核心案例:Nanbeige4.1-3B模型的突破性表现 - BOSS直聘南北阁实验室发布的Nanbeige4.1-3B模型,以仅3B的参数量,实现了通用问答、复杂推理、代码编写和深度搜索等综合能力,挑战了“小模型难通用”的刻板印象 [10][19][21] - 该模型在多项评测中显著超越同规模开源模型(如Qwen3-4B、Qwen3-8B),并在综合指标上超越了参数量大10倍的Qwen3-32B与Qwen3-30B-A3B模型 [11] - 即使与发布时间更晚、参数接近的Qwen3.5-4B模型对比,Nanbeige4.1-3B在六大核心指标上依然整体领先,展现了稳健的技术优势 [14] - 模型发布后迅速获得社区关注,登上HuggingFace文本模型趋势榜第一,并一度冲进全球模型总榜前三 [14] 技术解析:实现“小而全”的关键方法 - 研究团队采用了分阶段、分领域的优化策略,在有限的3B参数规模内系统性地整合了多项能力,并保持了各领域间的能力平衡 [21][22] - **通用能力优化**:调整了指令数据的结构比例,提高代码类样本、数学难题和复杂推理任务的占比,以强化小模型对深层逻辑的建模能力 [23] - **上下文长度扩展**:采用三阶段课程学习(32K → 64K → 256K),渐进式地让模型适应更长的依赖关系,稳定学习长距离注意力结构 [24] - **回复质量提升**:通过引入Solution Refinement(解答迭代优化)与CoT Reconstruction(思维链重构)框架,减少推理中的逻辑跳步和不连贯问题,提升思维链的忠实度和一致性 [26][27][30] 训练机制:创新的强化学习(RL)策略 - 团队创新性地将RL拆分为两个阶段:Point-wise RL和Pair-wise RL [33] - **Point-wise RL**:引入通用奖励模型对单条回答质量评分,显著降低了冗长、重复与格式错误,将LiveCodeBench-v6的格式错误率从5.27%降至0.38% [34][35] - **Pair-wise RL**:让模型与其他模型进行PK,由Pair-wise奖励模型判断回答优劣,使模型在竞争环境中迭代提升,不仅提升了Arena-Hard V2等对抗评测成绩,也对Multi-Challenge等单点评分任务带来明显收益 [35][36] 专项能力:编码与深度搜索的深度优化 - **编码能力**:采用两阶段RL策略,并设计了“门控时间复杂度奖励”机制,即时间奖励仅在解答通过所有测试用例(正确率100%)时才会被激活,确保模型先追求正确性,再优化效率 [38][39] - **深度搜索能力**:通过构建大规模、结构复杂的搜索数据集,并引入“轮次级质量控制”机制,对每一轮搜索交互的推理逻辑、工具调用和信息增益进行独立评估,训练模型形成稳定的“检索-判断-再检索”循环结构 [45][46][48] - 在深度搜索基准测试中,Nanbeige4.1-3B在xBench-DeepSearch-2505上达到75分,在GAIA (text-only)上达到69.90分,成绩接近专为搜索打造的AgentCPM-Explore-4B模型 [54][55] 性能验证:全面的基准测试与实战检验 - 在综合基准测试中,Nanbeige4.1-3B在多数测试上超越了参数规模10倍以上的模型,并在与Qwen3-Next-80B-A3B等超大模型的对比中保持竞争力,各项指标互有胜负 [50][53] - 在代码领域,其LCB-V6得分达76.9,远超Qwen3-32B的57.4;在数学领域,AIME 2025得分达90.83,优于Qwen3-30B-A3B的87.8 [51] - 在模型发布后举办的真实任务竞赛中(如LeetCode周赛和HMMT数学竞赛),Nanbeige4.1-3B的表现不仅显著优于Qwen3.5-4B,甚至超过了参数量更大的Qwen3.5-9B,有力证明了其极强的泛化与推理能力 [56][57][58] 行业影响与未来展望 - Nanbeige4.1-3B的成功表明,通过精细化的训练方法创新,小模型可以形成独立、通用的能力体系,而不再仅仅是大模型的“轻量替代品” [60][61] - 参数规模的差距正被训练范式的创新所弥补,原本依赖大模型规模优势的Agent与复杂推理能力,开始下沉到更具部署友好性的小尺度模型 [61] - 当3B模型即可稳定处理推理、编程与搜索任务时,企业侧的部署范式将被重写,为移动端、本地化及私有化部署场景打开了巨大的想象空间 [62] - 行业认为,大模型的边界在扩张的同时,小模型的效率革命也在发生,未来决定AI应用广度的关键,可能是“小参数模型所能释放的智能密度” [63][64]
MINIMAX-WP:领先的大模型开发公司,产品商业化迅速推进-20260309
国信证券· 2026-03-09 11:00
投资评级 - 报告给予MINIMAX-WP(00100.HK)“优于大市”评级,并维持该评级 [1][2][4][78] 核心观点 - 报告认为,MINIMAX是领先的大模型开发公司,其产品商业化正迅速推进 [1] - 公司自创立之初即聚焦全模态大模型研发与AI原生应用构建,通过持续迭代形成了涵盖文本、语音等能力的多模态模型体系 [4] - 公司采取“C端验证能力、B端实现放大”的双轮驱动路径,通过C端高频互动场景验证模型能力,再向B端开放平台和企业服务延伸,实现用户规模和调用量快速提升 [4][64] - 公司多模态产品商业化和出海均处于国内领先地位,低价模型切合中小企业和个人用户需求,预计未来业绩增长空间有望进一步打开 [4][78] 公司概况与发展历程 - MINIMAX成立于2021年,自创立之初即布局全模态大模型方向 [4][5] - **创业初期(2021-2023年)**:2022年发布首个文本模型abab1;2023年发布百亿参数预训练大模型abab5.5并与首位API客户合作,后续发布AI原生全模态交互平台Talkie、全模态交互平台星野、语音模型Speech-01 [5] - **快速发展阶段(2024年至今)**:2024年发布多语言语音生成模型Speech-02、MiniMax MCP;2025年发布首个开源、大规模混合注意力推理模型MiniMax M1、智能Agent应用,并发布Hailuo-02、MiniMax M2、Music 2.0等,形成完备产品矩阵;2026年在港交所成功上市 [5] 公司治理与股权 - 公司核心决策权高度集中于创始团队 [7] - 创始人兼董事会主席、CEO/CTO闫俊杰统筹公司整体战略与核心技术路线 [7][8] - 核心技术人员在技术研发、经营管理与产品商业化等方面形成互补合力 [7] - 创始人及联合创始人团队通过Alpha Exp平台合计持有28.25%股份,为公司实际控制人;阿里巴巴持股13.66%,为第一大外部机构股东;米哈游持股6.40%;IDG资本持股2.80% [8] 产品与技术矩阵 - 公司产品涵盖基础模型、应用产品及平台服务,形成完备矩阵 [12] - **基础模型(M系列)**:构建了以M系列为核心的通用大语言模型体系,包括M1、M2、M2.1及最新发布的M2.5等版本 [12] - **M2.5模型表现突出**:在MiniMax内部真实业务场景中,整体任务的30%由M2.5自主完成,覆盖研发、产品、销售、HR、财务等职能,且渗透率持续上升 [3][15] - 在编程场景,M2.5生成的代码已占新提交代码的80% [15] - 在编程、工具调用和搜索、办公等生产力场景达到或刷新行业SOTA,例如SWE-Bench Verified(80.2%)、Multi-SWE-Bench(51.3%)、BrowseComp(76.3%) [15] - 在SWE-Bench Verified测试中,M2.5比上一版本M2.1完成任务速度快了37% [15] - 成本优势显著:在每秒输出100 token的情况下,M2.5连续工作一小时只需花费1美金;每秒输出50 token的情况下,只需0.3美金 [15][16] - 在OpenRouter Programming最新统计中,M2.5以约29.7%的调用份额位列第一,调用规模超过1.21T tokens [60] 1. **视频生成模型(Hailuo系列)**:Hailuo-02支持文本生成视频及图像生成视频,在指令理解、复杂动作表达及画面物理一致性方面表现突出 [19][21] 2. **语音模型(Speech系列)**:Speech-02系列包括面向高保真语音生成的Speech-02-HD与面向高效率实时生成的Speech-02-Turbo,在自然度、情感表达与语音稳定性方面实现显著提升 [22] 3. **商业闭环**:公司构建起模型、应用、平台协同发展的商业闭环 [25] - **C端**:以订阅制与应用内付费为核心变现方式,产品包括MiniMax、海螺AI、MiniMax语音、Talkie/星野等 [25][28] - **B端**:通过开放平台API调用收费及定制化企业服务收费,向企业客户输出多模态能力 [27][28] 财务表现与预测 - **历史财务**: - 2025年实现收入7904万美元,同比增长159% [29] - 2025年AI原生产品收入5308万美元,占比67.2%;开放平台及其他服务收入2596万美元,占比32.8% [29] - 2025年实现净亏损18.72亿美元 [29] - 2025年毛利率为25.40% [31] - 2025年销售/管理/财务费用率分别为46.58%/65.66%/319.81% [31][32] - **盈利预测**: - 预计公司2026/2027/2028年营业收入分别为2.5/6.5/12.9亿美元,分别同比增长218.7%/156.4%/100.2% [4][77] - 预计2026/2027/2028年毛利率分别为32.4%/38.2%/43.8% [76][77] - **AI原生产品(C端)**:预计2026/2027/2028财年收入增速分别为130.0%/110.0%/70.0%,占公司总收入比重分别为48%/40%/34% [75][76] - **开放平台及其他服务(B端)**:预计2026/2027/2028财年收入增速分别为400.0%/200.0%/120.0%,占公司总收入比重分别为52%/60%/66% [75][76] 行业趋势 - **趋势一:大模型能力不断提升,应用边界快速扩展** [34] - 纵向:智能水平跨越式提升,Agentic AI兴起使模型具备主动执行能力 [34] - 横向:多模态融合加速,构建涵盖视觉、听觉及视频的统一语义空间 [35] - 模型迭代速率加快,从以年为单位的代际演进进入以季度甚至月度为周期的竞速时代 [38][39] - **趋势二:供给侧技术进步推动算力成本结构性下降** [40] - 机器学习专用GPU的算力性价比(FLOPs/$)平均每2.1年翻倍 [40] - 推理成本快速下探,以GPT-4 level为例,2025年每百万token成本仅为2024年的1/40 [42] - 全球大模型市场规模(按基于模型的收入计)预计从2024年的146亿美元增长至2029年的2065亿美元,CAGR达80.7% [44] - 头部企业商业化迅速,例如OpenAI年化营收从2023年的0.2亿美元增长至2025年的200亿美元 [46] - **趋势三:竞争格局海外暂时领先,国内外差距逐渐缩小** [50] - 大模型应用主要赛道包括生产力、娱乐、视觉生成、音频生成和通用2B服务 [50] - 中美前沿模型性能差距已从ChatGPT发布后的超过一年,缩小到不到三个月 [54] 公司核心优势 - **多模态布局形成平台级技术优势**:公司构建起覆盖“文本理解—视觉生成—语音生成”的多模态能力矩阵,具备长期演进潜力 [4][58] - **采取“C端验证能力、B端实现放大”的双轮驱动路径**:通过C端高黏性场景打磨模型并实现商业化,再将能力向B端平台化输出,形成技术能力与产品体验的正向循环 [4][64] - **全球化推进迅速**:公司确立“首日即全球”的发展锚点,产品上线即面向全球200多个国家和地区发布 [71] - 截至2025年前三季度,公司海外收入占比高达73.1% [71] - 付费用户数从2023年的约12万飙升至177万,付费用户平均支出(ARPU)翻倍至15美元 [71] - 旗下Talkie构建了累计超2.12亿用户的全球社区,日均使用时长超70分钟 [71]
未知机构:38周观点NV如何应对AgenticAI新增的算力需求-20260309
未知机构· 2026-03-09 10:45
**纪要涉及的行业或公司** * **公司**:英伟达 (NV)[1] * **行业**:人工智能 (AI) 算力行业,特别是Agentic AI(智能体AI)领域[1][2] **核心观点与论据** **1. 英伟达的核心护城河** * 技术引领[1] * 长期对算力的执着[1] * 深刻的消费者洞察(常被忽视,但至关重要)[1] * **论据**:公司的产品定义反映了对需求变化的精准把握,例如:大模型催生对高带宽内存 (HBM) 的需求、训练催生对十万卡集群的需求、开发者编译催生对大节点 (NVL72) 的需求、汽车/机器人催生对端侧大算力 (Orin/Thor) 的需求、长上下文窗口催生对内存 (SSD边柜) 的需求、推理催生对计算与数据路径分离 (CPX) 的需求[1] **2. Agentic AI将创造巨大的新增算力需求** * **核心观点**:由OpenClaw掀起的Agentic AI浪潮,是英伟达现有产品无法精准覆盖的新需求[2] * **论据**: * 重度用户日均Tokens消耗量可达3000万至1亿[2] * 以当前模型计价,每日费用高昂(Claude Opus 4.6约900-3000美元/天,MiniMax M2.5约42-140美元/天)[2] * **市场测算**:假设未来一两年内有100万OpenClaw用户跑通商业模型,将新增一个价值3600亿美元的Agentic AI算力市场[2] * **现有挑战**:GPU在高并发推理场景下运行效率仅约20-50%,存在明显的算力资源浪费[2] **3. 英伟达应对Agentic AI算力需求的两大战略举措** * **举措一:布局LPU (Language Processing Unit)** * **定位**:LPU是“为推理产线专门定制的流水线”,旨在与ASIC芯片在推理领域正面竞争,补齐推理性价比短板[2][3] * **行动**:公司以200亿美元获得Groq的非独家技术授权及核心团队,包括LPU/TSP推理架构、编译器、片上SRAM授权,以及Groq创始人Jonathan(TPU之父)、总裁Sunny和约90%的核心团队[2] * **举措二:发展独立的Vera CPU平台** * **定位**:Vera不仅是传统“主机CPU”,其官方定位是“智能体推理的数据移动引擎”,目标之一是“保持GPU的完全利用率”[3] * **功能**:Vera CPU被强烈绑定于智能体推理、KV缓存、工作流编排、AI工厂控制平面等新型负载[3] * **合作进展**:Meta在2026年2月的合作公告中提及,双方正推进大规模Grace-only部署,并合作推进Vera CPU,存在潜在的大规模部署机会[3] **其他重要内容** * 公司推出新产品的逻辑并非简单堆砌技术,而是基于现有产品无法覆盖的新需求来开辟新产品序列[1] * 公司的每一次新产品发布,不仅展示技术迭代,也在确立硬件设施的未来需求方向,其消费者洞察指明了当前及下一阶段的需求来源[4]
MINIMAX-WP(00100):领先的大模型开发公司,产品商业化迅速推进
国信证券· 2026-03-09 09:23
投资评级 - 报告给予MINIMAX-WP(00100.HK)“优于大市”评级,并维持该评级 [1][2][4][78] 核心观点 - 报告认为,MINIMAX是一家领先的全模态大模型开发公司,其技术路线使其具备长期演进潜力,而非阶段性能力领先 [4][58] - 公司采取“C端验证能力、B端实现放大”的双轮驱动路径,调用量和用户规模快速提升 [4][64] - 公司低价模型切合中小企业和个人用户需求,多模态产品商业化和出海均处于国内领先地位,未来业绩增长空间有望进一步打开 [4][78] - 预计公司2026/2027/2028年营业收入分别为2.5/6.5/12.9亿美元,分别同比增长218.7%/156.4%/100.2% [4][77] 公司概况与发展历程 - MINIMAX成立于2021年,自创立之初即布局全模态大模型方向,聚焦基础模型研发与AI原生应用构建 [4][5] - 公司发展历程分为两个阶段:1)创业初期(2021-2023年),产品逐步丰富,发布了首个文本模型abab1、百亿参数模型abab5.5、AI交互平台Talkie/星野及语音模型Speech-01 [5];2)快速发展阶段(2024年至今),产品快速迭代,发布了多语言语音模型Speech-02、开源模型MiniMax M1、智能Agent应用、Hailuo-02、M2系列模型及Music 2.0等,形成完备产品矩阵,并于2026年在港交所成功上市 [5] 公司治理与股权结构 - 公司核心决策权高度集中于创始团队,创始人兼CEO/CTO闫俊杰统筹公司整体战略与核心技术路线 [7] - 核心技术人员在技术研发、经营管理与产品商业化等方面形成互补合力 [7] - 创始人及联合创始人团队通过Alpha Exp平台合计持有28.25%股份,为公司实际控制人 [8] - 阿里巴巴持股13.66%,为第一大外部机构股东,米哈游持股6.40%,IDG资本持股2.80% [8] 产品与技术能力 - **基础模型(M系列)**:公司构建了以M系列为核心的通用大语言模型体系,包括M1、M2、M2.1及最新发布的M2.5等版本 [12] - **M2.5模型表现突出**:在内部真实业务场景中,整体任务的30%由M2.5自主完成,覆盖研发、产品、销售等职能,其中生成的代码已占新提交代码的80% [3][15] - **性能领先**:在编程、工具调用和搜索、办公等生产力场景达到或刷新行业SOTA水平,例如在SWE-Bench Verified测试中达到80.2% [15] - **效率与成本优势显著**:完成任务速度比上一代M2.1快37%;在每秒输出100 token的情况下,连续工作一小时仅需1美元,成本仅为Opus、Gemini 3 Pro及GPT5等模型的1/10-1/20 [15][16] - **市场认可度高**:在OpenRouter Programming统计中,M2.5以约29.7%的调用份额位列第一,调用规模超过1.21T tokens [60][62] - **视频生成模型(Hailuo系列)**:Hailuo-02支持文本生成视频及图像生成视频,在指令理解、复杂动作表达及画面物理一致性方面表现突出,基于该模型推出的海螺AI视频生成平台处于全球视频生成模型第一梯队 [19][21][26] - **语音模型(Speech系列)**:Speech-02系列包括面向高保真生成的HD版本和面向高效率实时生成的Turbo版本,在自然度、情感表达与语音稳定性方面实现显著提升,发布后处于全球领先位置 [22][23] - **多模态能力矩阵**:公司已构建起覆盖“文本理解—视觉生成—语音生成”的完整多模态能力矩阵,技术边界完整,具备长期演进潜力 [4][58] 商业模式与商业化进展 - 公司构建了模型、应用、平台协同发展的商业闭环 [25] - **C端业务**:以订阅制与应用内付费为核心变现方式,产品包括MiniMax、海螺AI、MiniMax语音、Talkie/星野等,满足情感陪伴、角色互动、内容创作等高频高粘性场景 [25][28][64] - **B端业务**:通过开放平台API调用收费及定制化企业服务收费,向企业客户输出多模态能力 [27][28] - **财务表现**: - 收入跨越式增长:2025年实现收入7904万美元,同比增长159% [29] - 收入结构:2025年AI原生产品收入5308万美元,占比67.2%;开放平台及其他服务收入2596万美元,占比32.8% [29] - 毛利率改善:2025年毛利率为25.40%,由负转正并逐步提升 [31] - 仍处亏损阶段:2025年净亏损18.72亿美元,销售/管理/财务费用率分别为46.58%/65.66%/319.81% [29][32] - **全球化进展迅速**: - 确立“首日即全球”策略,产品上线即面向全球200多个国家和地区发布 [71] - 截至2025年前三季度,海外收入占比高达73.1% [71] - 付费用户数从2023年的约12万飙升至177万,付费用户平均支出(ARPU)翻倍至15美元 [71] - Talkie产品日均使用时长超70分钟,累计拥有超2.12亿全球用户 [71] 行业趋势与竞争格局 - **趋势一:大模型能力提升,应用边界扩展** - 纵向:模型智能水平跨越式提升,Agentic AI兴起使模型具备主动执行复杂任务的能力 [34] - 横向:多模态融合加速,AI正突破单一文本局限,构建涵盖视觉、听觉及视频的统一能力 [35] - 迭代加速:全球大模型行业进入以季度甚至月度为周期的竞速时代,国内外头部厂商模型迭代速度均加快 [38][39] - **趋势二:算力成本结构性下降,市场空间打开** - 机器学习专用GPU的算力性价比平均每2.1年翻倍,推动推理成本快速下探 [40] - 2025年GPT-4 level模型的每百万token成本仅为2024年的1/40 [42] - 成本下降激活下游需求,推动行业进入爆发增长期,预计全球大模型市场规模将从2024年的146亿美元增长至2029年的2065亿美元,CAGR达80.7% [44] - 头部企业商业化加速,例如OpenAI年化营收从2023年的0.2亿美元增长至2025年的200亿美元 [46] - **趋势三:竞争格局海外暂时领先,中外差距缩小** - 主要应用赛道包括生产力、娱乐、视觉生成、音频生成和通用ToB服务 [50] - 在生产力赛道,公司M2.5模型在编程等场景表现突出;在娱乐赛道,公司Talkie(星野)是头部厂商之一;在视觉生成赛道,公司是头部玩家之一 [51] - 中美前沿模型性能差距已从ChatGPT发布后的超过一年,缩小到不到三个月 [54] 盈利预测 - **总收入**:预计2026E/2027E/2028E分别为2.52亿/6.46亿/12.93亿美元,增速分别为218.7%/156.4%/100.2% [76][77] - **收入结构**: - AI原生产品(C端):预计2026E/2027E/2028E收入分别为1.22亿/2.56亿/4.36亿美元,增速分别为130.0%/110.0%/70.0%,占总收入比重分别为48%/40%/34% [75][76] - 开放平台及其他服务(B端):预计2026E/2027E/2028E收入分别为1.30亿/3.89亿/8.57亿美元,增速分别为400.0%/200.0%/120.0%,占总收入比重分别为52%/60%/66% [75][76] - **毛利率**:预计2026E/2027E/2028E分别为32.4%/38.2%/43.8% [76] - **费用率**:预计随着收入规模扩大,各项费用率将逐步下降,2026E/2027E/2028E销售费用率分别为30.9%/16.9%/11.0%,管理费用率分别为21.9%/11.1%/6.7%,研发费用率分别为141.2%/74.5%/47.4% [76]
早报|哈梅内伊次子当选伊朗最高领袖;深圳龙岗拟首发“龙虾十条”;Kimi付费用户订单暴涨80倍;大润发母公司CEO被免职
虎嗅APP· 2026-03-09 08:30
能源与地缘政治 - 布伦特原油价格突破每桶100美元,日内上涨7.89%;WTI原油价格也突破每桶100美元,日内涨幅达10.02% [3] - 国内成品油价格预计在3月9日24时迎来年内第四次上调,汽柴油每升预计上调0.37-0.44元,或刷新2026年以来的最大单次涨幅 [29] 科技行业:消费电子与AI战略 - 苹果计划在年内推出至少三款全新的Ultra级别设备,包括售价约2000美元的折叠屏iPhone Ultra、定位高于AirPods Pro的AirPods Ultra以及采用触控OLED屏幕且价格最高可能上涨20%的MacBook Ultra [6] - 英伟达CEO黄仁勋预测所有软件都将全面“智能体化”,软件公司的核心营收模式将从传统的软件授权转变为租赁Tokens,企业将结合自行微调的开源大模型与现成的闭源大模型来推动软件全自动化 [30][31] - 小米集团创始人雷军表示中国大模型与世界先进水平差距仅半年到一年,并透露小米机器人在汽车工厂中拧螺丝的准确率超过90%,未来五年小米计划投入2000亿元攻坚芯片、AI、操作系统等底层核心技术 [32] - 小鹏汽车创始人何小鹏在谈及机器人拟人化时表示,社会投放需要大量交互,拟人化有助于提升交互体验,并指出公司应学习华为、苹果做出高质量高溢价的产品,未来五年计划推出更好的汽车和机器人 [26] 科技行业:人工智能与模型应用 - Kimi个人订阅用户支付订单量在1-2月呈现爆发式增长,1月订单数环比增长8280%,2月环比再增长123.8%,其在全球支付平台Stripe的排名从百名开外跃升至1月的第22位,2月进一步升至第9位 [16][17] - 深圳市龙岗区拟出台措施支持OpenClaw&OPC发展,包括对向国际主流社区贡献关键代码、开发技能包或应用项目的给予最高200万元补贴,并对经认定的深度应用示范项目按实际投入的30%给予一次性奖励,最高100万元 [7][8] - 针对网络流传的“国产AI短剧《霍去病》48小时制作、播放量5亿”的报道,导演澄清称成本3000元仅为算力成本,团队近20人,实际作品为两支短片,总时长约10分钟,对5亿播放量数据表示无法准确统计 [19] 科技行业:通信与量子技术 - 中电信量子集团发布声明,澄清网络流传的“中国电信展示量子通信手机样品(型号REEDONE GK5)”为不实信息,声明该型号产品与中国电信、中电信量子集团及国盾量子无任何关联 [20][21]
爱因斯坦、费曼在智能体世界「复活」:30分钟刷新Erdos经典数学问题记录
机器之心· 2026-03-08 18:04
研究背景与核心方法 - 斯坦福大学与TogetherAI的研究者基于爱因斯坦、费曼等物理学家的“人格画像”构建了一批AI智能体,并创建了一个类似Kaggle的竞争合作平台[1][2] - 该研究旨在探索利用大模型和智能体解决数学问题的新范式,核心是让具有不同角色设定的智能体在平台上自由发表观点、相互竞争并展开合作[1][2] 实验成果与关键数据 - 智能体协作模式在30分钟内,为Erdös最小重叠问题发现了目前已知的最佳新解[4] - 新解决方案(Ours)在n=600步时,将问题上界优化至0.380871,优于此前所有方法[15] - 历史方法对比:2016年Haugland方法上界为0.380927,2025年5月AlphaEvolve方法为0.380924,2026年1月TTT-Discover方法为0.380876[15] - 智能体采取的核心优化思路是利用序列线性规划对阶梯函数构造进行优化[11] 智能体协作的涌现行为 - 平台系统为防止刷榜规定,智能体提交的新解必须至少比前一次提交提升1e-8,否则无法提交[7] - 在此规则下,出现了智能体委托“朋友”替自己提交结果的规避行为[8] - 研究者认为,为智能体赋予独特角色(如怀疑论者、乐观者)能产生不同的推理路径,从而以不同角度解决问题[17] 行业影响与争议 - 支持者认为这是一种新的内向型科研协作范式,智能体各自独立并行工作,减少了人类协作中的沟通与协调成本,从而高效解决问题[17] - 反对者批评该方法本质上只是一个被复杂包装的提示系统,让模型扮演特定角色可能增加“制造噪声”的步骤,而非直接进行有洞见的思考[17] - 完整的解决方案与验证过程已在GitHub开源,项目获得30个星标和4次分叉[9][10]
谁在消耗5万亿模型算力?
经济观察报· 2026-03-08 11:49
中国大模型调用量跃升与产业重心转移 - 2026年2月第二周,中国大模型在OpenRouter平台的单周调用量达到5.16万亿Token,三周内增长127%,历史上首次超越美国模型的2.94万亿Token [2] - 尽管平台用户中美国占47.17%,中国仅占6.01%,但该数据表明海外开发者对中国模型的使用意愿快速上升,标志着人工智能产业重心正从比拼训练成本转向高频、常态化的应用推理阶段 [2][3] - 当周全球大模型调用量排名前五中,中国模型(MiniMax M2.5、月之暗面Kimi K2.5、智谱GLM-5与深度求索DeepSeek V3.2)占据四席 [2] 五万亿Token流向与应用模式变革 - Token消耗激增源于AI应用模式从“问答式”向“智能体(Agent)”模式切换,后者需在后台持续执行多步骤任务并携带完整对话历史,导致单次会话Token吞吐量呈几何级数增长 [6] - 根据《2025 AI使用报告》,OpenRouter平台处理的编程任务Token占比从2025年初的11%增至50%以上,成为最大单一使用品类 [6] - 多模态应用落地进一步推高消耗,例如Seedance 2.0视频模型生成一条10秒、1080p视频约消耗35万Token,是传统文本问答的数百倍 [7] - 数万亿Token调用主要由高频、规模化、可持续付费的商业应用支撑,买单领域集中在互联网、金融、跨境电商与娱乐行业 [8] 国产大模型承接需求的技术与成本优势 - 国产模型如MiniMax M2.5、Kimi K2.5普遍采用混合专家(MoE)架构,相比传统稠密模型,推理时显存占用降低约60%,吞吐量显著提升 [9] - MoE架构通过按需激活部分参数,在保持巨量参数的同时大幅降低单次推理所需有效算力 [10] - 中国模型具备显著成本优势:输入价格约为0.3美元/百万Token,而部分海外同类产品价格在5美元左右;中国西部算力节点电力成本约每度0.2元至0.3元,欧美地区则在1元至1.5元之间 [10] - 成本优势与需求爆发推动国产大模型厂商告别价格战,开始获得实打实业务收入,例如智谱AI宣布上调API调用价格,部分涨幅达30%至100%;月之暗面Kimi K2.5发布不到一个月,海外收入便超过国内收入 [12] 算力采购标准转向与国产芯片机遇 - 算力市场核心指标从抢夺计算卡转向核算单位产出成本,企业开始计算每投入一元钱能换取多少吞吐量,每消耗一瓦电能处理多少Token [14] - 行业进入推理阶段后,需求更聚焦能耗、稳定性和供应安全,这为国产AI芯片提供了切入窗口 [14] - 2026年推理型AI服务器在整体出货结构中的比重有望提升至44%,较2025年上升3个百分点 [15] - 推理型服务器对高端封装和高带宽内存的严苛要求有所下调,有利于中国本土企业在HBM受限情况下发展中等规模算力的推理芯片 [16] 国产算力基础设施升级与商业落地 - 企业智算中心预算投入结构改变,从集中于高端训练GPU集群转向更多采用推理优化型GPU、国产AI芯片或异构算力组合,软件平台、算力调度等占比提升 [17] - 行业进入系统级工程交付阶段,万卡集群的网络通信和散热能力比单卡“跑分”更具决定性 [17] - 国家超算互联网郑州核心节点部署了3套中科曙光提供的scaleX万卡超集群,最大可提供超3万张国产加速卡算力,是全国首个实际运营的3万卡国产AI算力池,验证了国产算力基础设施的工程化能力 [18] - 该算力系统已完成千款应用适配,超70%的国产新能源汽车在该平台进行流体和碰撞仿真实验 [19] 国产AI芯片厂商业绩与市场渗透 - 下游应用爆发倒逼上游基建升级,转化为国产芯片厂商业务收入,例如在中国移动总价值超50亿元的AI服务器集采中,华为昇腾系厂商斩获34亿元份额 [20] - 国产算力厂商业绩实现爆发性增长:寒武纪2025年营收增长453.21%至64.97亿元,实现上市以来首次年度盈利;摩尔线程、沐曦股份、海光信息2025年度业绩亦大幅提升 [20] - 根据伯恩斯坦报告,中国本土AI芯片品牌市场渗透率已从2024年的约29%提升至2025年的42%,国产算力正完成从边缘备选向市场首选的跨越 [21]
Dola能成为下一个TikTok吗?
创业邦· 2026-03-07 18:24
字节跳动AI应用业务概况 - 公司旗下AI应用“豆包”在国内市场表现突出,2025年第三季度以1.72亿月活跃用户登顶国内AI应用榜首,并在马年春节通过春晚合作使日活跃用户峰值达到1.45亿[5] - 豆包的成功得益于公司在抖音、今日头条等内部App的导流,以及其在娱乐交互和内容分享领域的优势,使其情感交互自然、口语化表达精准、使用门槛低,用户留存度呈现“微笑曲线”[5] - 公司另一AI应用“Dola”主要面向海外市场,其前身是2023年推出的Cici,服务于菲律宾、印尼及拉美等新兴市场,截至2025年底全球累计下载量突破1.2亿,月活跃用户突破5500万,处于海外AI应用第二梯队[6][9] 豆包与Dola的产品与技术差异 - 豆包采用公司自研的大模型,中文内容训练占比高,降低了对英文语料的依赖,提升了对中国用户需求的理解精度[6] - Dola面向海外市场,调用的是以英文数据库为主的OpenAI的GPT和Google的Gemini集成模型,主要提供对话问答、写作翻译、图像生成等消费端服务,不涉及复杂推理与专业分析,也无开放API接口[6] - Dola与豆包的关系,不同于抖音与TikTok共享核心算法的“双生共同体”模式,两者在技术基础上存在实质性差异[6] 公司的战略布局与挑战 - 2026年1月,公司CEO梁汝波在全员大会上明确将打造“豆包/Dola”AI助手应用作为短期核心战略目标,旨在推动公司大模型能力跻身行业第一梯队,并通过AI助手整合现有服务以实现用户体验升级[10] - 公司2026年计划在AI领域投入1600亿元人民币,其中半数资金将用于采购高端算力芯片,为大模型研发与全球化布局筑牢技术根基[12] - 公司面临挑战:抖音与TikTok虽已成为核心“现金牛”(2025年公司营收增长超20%,收入已超越Meta),但意味着增长天花板临近;在AI时代,公司并非新潮流的引领者,而TikTok的独特优势正被Instagram等对手追赶[11] - 公司迫切希望打造AI时代的“现象级产品”以跨越估值鸿沟(OpenAI估值8500亿美元,公司二级市场交易估值约5500亿美元)[12] Dola的海外市场策略与竞争哲学 - Dola采取“农村包围城市”的差异化务实打法,避开北美等成熟市场竞争,将资源集中投向东南亚、拉美等人口基数大、移动互联网渗透率高的新兴市场[18] - Dola定位为“一站式创作助手”和“超级工具箱”,瞄准需要“用得起、用得顺”的普通用户,解决写作业、翻译、简单图像生成等具体高频日常需求,并突出“免费”和“数学解题”等卖点[18] - Dola初期明智地选择调用GPT和Gemini等成熟大模型,降低了合规风险,加速了产品上线,并更容易适配多语言环境[19] - Dola的竞争哲学是“实用主义至上”,不急于在技术叙事上超越对手,而是通过精准的市场定位、用户体验和生态赋能,在新兴市场快速规模化,积累用户基数和实战经验[20] Dola的发展路径与生态整合潜力 - Dola未来若将底层模型切换为自研的豆包大模型,能控制成本、提升性能并形成差异化,并与TikTok等内容生态和生产工具深度结合,创造独特体验[20] - 从远期看,公司会进一步做好大模型研究,计划用海量海外数据投喂豆包大模型,提升其精准把握不同地区用户需求的能力,并考虑在海外各地建立算力中心以实现数据本地化存储和管理[15] - Dola可与公司旗下剪映海外版CapCut进行更丰富的融合,作为智能助手帮助用户探寻个性化图文制作方案,用生图功能辅助成片,再通过TikTok传播,以打破字节系AI应用在海外各自为战的僵局[14] - Dola是公司海外AI版图(包括Lark、Trae、AnyDoor等)中的关键一员,但目前尚未在某个垂直领域形成用户“非用不可”的绝对依赖[19] 行业竞争环境与公司核心优势 - AI时代的互联网竞争在改变存量市场形态,Meta、谷歌等美国科技巨头通过将Llama、Gemini嵌入其入口级产品(如Instagram、搜索框),对独立App形成碾压优势[13] - 公司的核心竞争力在于“推荐算法 + 内容场景 + 用户运营”的闭环能力,为泛娱乐提供了从创作到传播的全链路高效落地场景[14] - TikTok的成功在于其推荐算法精准捕捉人类大脑特点,形成了“用户沉浸-自发传播-生态扩张”的飞轮;公司要在AI应用领域成功,需打造适合AI的多巴胺体验,聚焦泛娱乐、社交化场景形成差异化优势[14] - 行业案例显示,AI应用的“记忆护城河”并不深,例如Anthropic的Claude上线“导入记忆”功能后,可快速将用户在ChatGPT的上下文迁移至Claude并登上App Store榜首[21];这对于目前使用GPT/Gemini的Dola而言,意味着未来若需切换至豆包大模型,用户迁移门槛可能较低[22]