豆包声音复刻模型2.0
搜索文档
火山引擎升级豆包系列模型
科技日报· 2025-10-21 07:28
公司产品更新 - 火山引擎发布豆包大模型系列更新,包括原生支持多种思考长度的豆包大模型1.6、更轻量的豆包大模型1.6lite、豆包语音合成模型2.0及豆包声音复刻模型2.0 [1] - 豆包大模型1.6是国内首个原生支持“分档调节思考长度”的模型,提供最低、低、中、高四种思考长度以平衡不同场景下对模型效果、时延和成本的需求 [2] - 以低思考长度为例,升级后的豆包1.6模型总输出tokens下降77.5%、思考时间下降84.6%,同时模型效果保持不变 [2] - 推出的豆包大模型1.6lite相比旗舰版本更轻量、推理速度更快,在企业级场景测评中较豆包1.5pro提升14%,在0—32k输入区间综合使用成本降低53.3% [2] - 公司发布智能模型路由,这是国内首个针对模型智能选择的解决方案,可自动为任务请求选择最合适的模型,目前已支持豆包大模型、DeepSeek等多种主流模型 [2] 市场表现与行业地位 - 截至今年9月底,豆包大模型日均tokens调用量已突破30万亿,相比5月底增长超80% [1] - IDC报告显示,在2025年上半年中国公有云大模型服务市场,火山引擎以49.2%的份额占比位居中国第一 [1] 行业发展趋势 - 全球AI大模型正朝三个方向发展:深度思考模型与多模态理解能力融合、视频图像语音模型逐步实现生产级水平、企业级复杂智能体正在走向成熟 [1] - 在服务企业用户过程中发现,开启深度思考模式可使模型效果平均提升31%,但会提高延迟和成本,导致其在实际应用中的使用占比仅有18% [2]
火山引擎:日均tokens超30万亿
北京商报· 2025-10-16 21:48
公司产品发布 - 火山引擎于10月16日发布豆包大模型的系列更新,包括豆包大模型1.6原生支持多种思考长度 [1] - 公司同时推出了豆包大模型1.6 lite、豆包语音合成模型2.0、豆包声音复刻模型2.0等全新模型 [1] 公司运营数据 - 截至2025年9月底,豆包大模型日均tokens调用量超过30万亿 [1] - 该调用量相比2024年5月底增长超过80% [1]
火山引擎发布豆包系列模型升级,披露日均tokens超30万亿
21世纪经济报道· 2025-10-16 18:01
豆包大模型系列更新 - 火山引擎发布豆包大模型1 6 原生支持多种思考长度 并推出豆包大模型1 6 lite、豆包语音合成模型2 0、豆包声音复刻模型2 0等全新模型 [1] - 截至2025年9月底 豆包大模型日均tokens调用量已突破30万亿 相比2025年5月底增长超80% [1] - 2025年上半年中国公有云大模型服务市场 火山引擎以49 2%的份额占比位居中国第一 [1] 豆包大模型1 6核心升级 - 豆包大模型1 6是国内首个原生支持"分档调节思考长度"的大模型 提供Minimal、Low、Medium、High四种思考长度以平衡效果、时延和成本需求 [2][3] - 开启深度思考模式可使模型效果平均提升31% 但实际应用中使用占比仅有18% [3] - 以低思考长度为例 升级后模型总输出tokens下降77 5% 思考时间下降84 6% 模型效果保持不变 [3] - 豆包大模型1 6 lite相比旗舰版更轻量、推理速度更快 效果超越豆包大模型1 5 pro 在企业级场景测评中提升14% [3] - 在0-32k输入区间 豆包大模型1 6 lite的综合使用成本较豆包1 5 pro降低53 3% [3] 语音模型升级 - 豆包语音合成模型2 0和声音复刻模型2 0具备更强情感表现力和精准指令遵循能力 能准确朗读复杂公式 [7][8] - 新语音模型基于大语言模型研发新架构 使声音能进行深度语义理解和上下文推理 [8] - 在小学至高中阶段全学科的复杂公式朗读中 新模型准确率可达90% 而市面上同类模型准确率普遍低于50% [8] - 豆包语音模型家族已覆盖7大领域 覆盖超过4 6亿台智能终端 [8] 智能模型路由解决方案 - 火山引擎发布国内首个模型智能选择解决方案"智能模型路由" 支持平衡模式、效果优先模式和成本优先模式 [9][10] - 智能模型路由已支持豆包大模型、DeepSeek、Qwen、Kimi等多种主流模型 [10] - 以DeepSeek为例 在效果优先模式下 智能路由后模型效果相比直接使用DeepSeek-V3 1提升14% [10] - 在成本优先模式下 实现相似效果条件下 模型综合成本最高下降超过70% [10] 行业发展趋势 - 全球AI大模型正朝三个方向发展:深度思考模型与多模态理解能力融合、视频图像语音模型实现生产级水平、企业级复杂Agent走向成熟 [1]
新豆包模型让郭德纲喊出发疯文学:(这班)不上了!不上了!不上了!!!
量子位· 2025-10-16 14:11
豆包语音大模型升级核心 - 火山引擎对豆包语音大模型进行升级,核心在于使语音学会思考,更能理解台词,情感表达更有张力[5] - 升级旨在推动AI语音从“像人”走向“懂人”,实现理解后的精准情感表达[11][23] 语音模型具体升级内容 - 主要升级两个模型:豆包语音合成模型2.0和豆包声音复刻模型2.0[7] - 豆包语音合成模型2.0提供三种操作模式:默认模式、语音指令模式和引入上文模式[9][12] - 豆包声音复刻模型2.0可在几秒内快速复刻指定声音[8] 语音模型升级效果实测 - 通过模仿《甄嬛传》角色华妃与甄嬛的对话,以及单依纯的声音对比,展示语音指令对情绪表达的显著提升[14][15][16][17][18][19][20] - 引入上文模式能有效改善AI对复杂台词停顿的处理,使表达更连贯自然[21][22][23] - 在复杂公式朗读方面,豆包语音大模型2.0版本准确率达到约90%,显著高于同类模型普遍低于50%的水平[24][25] 豆包大模型及多模态技术升级 - 豆包大模型1.6升级为国内首个原生支持分档调节思考长度的Thinking模型,提供四种思考模式[29][30][33] - 在低思考长度模型下,总输出tokens下降77.5%,深度思考时间大幅缩短84.6%[34] - 首次推出轻量化豆包大模型1.6 Lite,并发布智能模型路由,可根据任务复杂度自动匹配最优模型,在成本优先模式下综合成本最高可降71%[36][38][39] 技术应用与商业化落地 - 技术演进聚焦三大趋势:更强的思考与理解能力、更丰富的多模态交互、更实用的Agent智能体[41][43][44] - 小米小爱同学接入豆包大模型1.6后,终端设备具备结合现实场景进行对话和处理信息的能力[45] - 懂车帝应用“AI选车”功能,复杂需求搜索占比从10%大幅提升至79.4%[45] - OPPO、Keep、美图、洋葱学园等企业已应用火山引擎语音技术提升用户体验[45] 算力支撑与规模增长 - 豆包大模型日均tokens调用量在一年多内从1200亿增长至超过30万亿,实现253倍增长[47] - 增长背后依赖火山引擎AI云提供的稳定高效基础设施支撑[48]