Workflow
豆包语音模型
icon
搜索文档
AI大模型专题交流
2026-04-13 14:12
**涉及行业与公司** * **行业**:人工智能大模型、AI生成内容(AIGC)、AI编程、云计算、芯片/算力 * **提及公司**: * **国内**:Kimi、智谱AI、阶跃星辰、MiniMax、阿里巴巴(通义千问)、字节跳动(豆包)、百度(元宝)、DeepSeek、可灵、NanoBanana、快手、腾讯、华为(升腾)、寒武纪、海光 * **海外**:OpenAI (GPT系列)、Anthropic (Claude系列)、谷歌 (Gemini, Veo, Gemma)、Meta、特斯拉、英伟达 --- **关键要点总结** **一、 技术能力与竞争格局** * **国产模型能力评估**:国产旗舰模型(如Kimi、智谱AI、千问)在直接对话表现上已对标GPT-4并接近GPT-5,差距缩短至约6个月[2] 但在基础功能(如谷歌的端到端多模态、OpenAI的代码执行与原生Agent、Anthropic的应用生态)上仍存在差距,预计到2026年下半年才能对齐谷歌的端到端能力[2] * **国内竞争格局分化**: * **垂直模型公司(Kimi、智谱AI、阶跃星辰、MiniMax)**:通过复用DeepSeek等优秀架构实现快速迭代,在C端和中小B端市场获取份额[3][5] 预计2026年发展轨迹将延续[5] * **头部大厂(阿里、字节、百度)**:模型发展更侧重与自身庞大业务生态(如手机、汽车、抖音、云服务)结合以构建护城河[3][5] 预计在2026年Q3/Q4推出类似Gemini 3.0的多模态基模[5] * **海外竞争格局**: * **Anthropic**:聚焦办公和学习市场,构建“输入+工具自动化+行业生态”路径,冲击SaaS和软件外包公司[3] * **谷歌**:模型与自身业务(安卓、YouTube等)紧密结合,但受算力瓶颈严重制约,业务落地不及预期[4] * **OpenAI**:在模型能力上受挑战,可能通过提前推出全模态模型寻求突破[3] **二、 技术发展趋势与市场机会** * **主要发展方向**: * **文生视频**:收费潜力高,但技术天花板阶段性明显,是资本密集型领域,由快手、字节、阿里等巨头主导[6] 预计2026年5-6月达到当前阶段天花板,下半年转向单一模型生成多场景的能力[6] * **文生图**:市场需求巨大,尚未出现绝对领导者,仍属蓝海机会[1][6][11] 字节跳动计划在2026年Q2发布新模型[6] * **AI编程**:能力提升边际成本低,进入门槛相对较低,市场格局可能快速变化[6] * **技术平台期预测**:预计2026年末至2027年初,除文生图外,大模型技术将进入稳健平台期,行业竞争格局趋于稳定[1][11] 基础文本和代码模型因高质量数据耗尽将迭代放缓[11] * **DeepSeek-V4的影响**: * **技术亮点**:采用MHC架构,进行了重新预训练,预计带来推理效率提升和综合表现进步[12] 其Pro版本具备基础的视觉-语言理解能力,可提升代码编写动态应用的能力[13] * **行业影响**:为复用其架构的垂直模型公司设置了新的技术和资源门槛,因重新预训练需万卡(如12,000张H100/A100)集群,算力获取挑战巨大[1][12] 与国产芯片(寒武纪590/690、海光、升腾950)结合良好,可达到商业可用标准[14] **三、 算力需求与成本分析** * **推理算力短缺成因**: * **高并发压力**:国内市场用户活跃时间集中,豆包等应用瞬时并发量可能已超过50万甚至达60万,导致GPU耗卡量指数级增长[7] * **多模态需求激增**:多模态应用普及使输入token的数量和复杂度大幅增加,处理消耗变大[8] * 技术优化带来的算力消耗降低无法抵消由并发和多模态需求带来的算力需求激增[8] * **毛利率与盈利预期**: * **美国公司(如Anthropic)**:预计毛利率呈“U型”曲线,初期高,因激烈竞争和快速迭代而下滑,待模型形态稳定并通过优化应用层服务后回升[9][10] * **中国垂直模型公司**:预计毛利率呈稳步上升斜线,因架构迁移至DeepSeek等成熟框架,迭代更稳定,成本下降空间有限[1][10] * **中国自研大厂(字节、阿里)**:因处于架构重构或战线过广的快速迭代期,短期降本难度大[10] **四、 具体应用市场分析** * **AI编程市场**: * 发展超预期,C端付费单价和B端采购意愿(非技术行业公司)均超预期[18] * 常提及的超过50%代码采纳率包含传统IDE工具的贡献,AI主要填补了后端代码另外20-25%的空白[18] * 进一步采纳的瓶颈在于人工代码审核环节,短期难有本质突破[1][18] * 对国内软件外包行业影响缓慢,因企业软件系统封闭,仍需外包商作为模型与客户间的“换算”角色[19] * **文生视频模型评估(以Happy House为例)**: * **优势**:人像生成和多人场景流畅度突出[15] * **劣势**:音画同步能力有限、不支持全模态参考、不支持分镜功能,影响生产力价值[15][16] * **成本**:生成5秒视频需38秒,但生成长视频成本非线性上升,绝对消耗高,功能缺失使其相对低耗的优势打折扣[16] * **端侧模型应用**: * 端侧运行模型算力上限约7B-10B参数,仅能处理日常对话和基本指令[20] * **车载/手机端**:字节豆包的语音模型因低耗、表现好、适配性高,市场占有率超80%[21] 特斯拉合同也使用其语音模型,但思考模型用DeepSeek[21] 阶跃星辰则差异化布局非通用行业大模型及定制硬件场景[22] **五、 公司战略与生态建设** * **人员扩张逻辑(海外公司)**:通过构建复杂的多步骤Agent体系来提升产品价值和利润,应用层利润高于基础模型API[23] 国内如豆包、Kimi也在遵循此路径[24] * **国产模型出海模式**:两种主要模式,一是“Token出海”(训练推理在国内,服务海外),智谱AI已实现标准化;二是通过OpenRouter等经济型平台提供服务[3][4] * **谷歌的挑战与预期**:受限于算力瓶颈(尤其是推理算力),业务落地不及预期,促使行业短期趋势转向推出量化(压缩)模型[4] 即将发布的VLOGGER 4模型被寄予厚望[4]
盘点2025:模型服务,成为基础设施
第一财经· 2025-12-30 18:15
全球MaaS市场格局与火山引擎的崛起 - 截至2025年10月,全球MaaS市场前三名为OpenAI、谷歌云、火山引擎,市场份额分别为31%、19%、15%,三家合计占据全球市场65%的份额[1] - 火山引擎以30万亿日均Tokens调用量位居全球第三,仅次于OpenAI的70万亿和谷歌云的43万亿[3] - 火山引擎是前三名中唯一的中国厂商,正凭借MaaS服务在AI云市场快速突围[3] 火山引擎的增长与市场地位 - 2025年,火山引擎实现100%的同比增长,营收超过200亿人民币[6] - 由于MaaS商业化和模型迭代超预期,公司原计划于2030年实现的1000亿营收目标被上调了百分之几十[6] - 2025年上半年,火山引擎在中国公有云大模型服务市场份额扩大至49.2%,意味着中国公有云上每产生两个tokens就有一个由其生产[14] - 在Gartner 2025年度全球《AI应用开发平台魔力象限》中,火山引擎领跑“挑战者”象限,其“执行能力”位列全球第五、中国第一[14] 关键增长驱动与战略举措 - 2024年5月15日,火山引擎推出豆包大模型API服务,通过技术创新将主力模型定价从“分计价”拉入“厘计价”时代,降幅高达99.3%,引发了行业降价潮并推动了市场“从无到有”般的增长[6] - 2025年2月1日,DeepSeek-R1登陆火山方舟,模型推理服务全面爆发,火山引擎成为市场上吃到最多DeepSeek推理服务红利的云厂商[7] - 豆包大模型与DeepSeek的爆红,共同催生了中国MaaS市场,IDC报告显示2024年7月和2025年2月是中国公有云大模型调用量月度环比增长率最高的两个拐点[8][10] - 豆包大模型调用量呈指数增长,推出不到600天,其最新日均调用量已达63万亿Tokens[3][4] 产品迭代与调用量增长的正循环 - 2025年6月以来,豆包大模型家族密集发布了1.6、1.8版本以及视频生成、图像编辑、语音、图像创作等多个模型,每次模型能力提升都解锁了更多应用场景并带动调用量增长[10] - 伴随模型发布节奏,几乎每3个月模型调用就会迎来一次更陡峭的增长[11] - 公司认为,大的模型调用量能打磨出更好的模型和基础设施,来自B端场景的真实反馈可以指导下一代模型的训练路线图[15][16][18] - 大规模调用量能迭代出更极致的基础设施,优化推理成本,例如通过PD分离、xLLM推理框架等方式在2024年5月大幅降低模型推理价格[18] - MaaS服务已成为火山引擎增长最快、毛利最高的AI云计算产品,参照DeepSeek公布的推理服务最高成本利润率可达545%[18] 字节跳动的技术溢出与协同优势 - 火山引擎63万亿日均Tokens调用量的用户基础,部分来源于字节跳动的溢出效应[20] - 公司受益于B端和C端的极致协同,字节跳动的C端产品(如豆包App)拥有大量用户并大规模调用模型,这帮助火山引擎优化服务,同时豆包App也成为向企业客户展示能力的窗口[20][21] - 字节跳动内部50多个业务线在AI实践上走得更靠前,尝试了众多Agent,这为火山引擎提供了宝贵的认知和know-how[23] - 云计算是规模体系的比拼,火山引擎的崛起得益于字节跳动庞大的业务体系托举和技术外溢,这与AWS、谷歌、阿里等头部云厂商的路径类似[24] - 字节跳动通过火山引擎持续把新模型、新技术开放给企业客户,以在更大市场经受检验[24][25] 未来战略:从MaaS到AI云原生 - 在取得MaaS份额第一后,火山引擎的战略目标依旧是MaaS优先[27] - 公司致力于降低AI应用门槛,通过更高层次的封装和成本优化加速AI普惠[27] - 在基础MaaS层,追求模型效果更好、成本更低、易用性更高,并推出了Prompt Pilot、Model Router和Responses API等工具[27] - 在更底层,推出了模型的推理代工服务,客户可将自己的模型托管在火山方舟上,无需自建基础设施[27] - 随着应用迈向以Agent为技术主体,公司正构建以模型为中心的AI云原生架构,MaaS是使用模型的最佳方式,云平台和中间件进一步把Tokens组装成Agents[28] - 作为国内率先推出Agent开发、运营全套产品的云厂商,火山引擎已将豆包助手API、即梦API对外提供服务[30] - Agent的商业逻辑从tokens调用的IT预算,转向类似BPO(人力外包)的角度,市场天花板有望扩大很多倍[30]