Workflow
豆包大模型1.6lite
icon
搜索文档
火山引擎升级豆包系列模型
科技日报· 2025-10-21 07:28
公司产品更新 - 火山引擎发布豆包大模型系列更新,包括原生支持多种思考长度的豆包大模型1.6、更轻量的豆包大模型1.6lite、豆包语音合成模型2.0及豆包声音复刻模型2.0 [1] - 豆包大模型1.6是国内首个原生支持“分档调节思考长度”的模型,提供最低、低、中、高四种思考长度以平衡不同场景下对模型效果、时延和成本的需求 [2] - 以低思考长度为例,升级后的豆包1.6模型总输出tokens下降77.5%、思考时间下降84.6%,同时模型效果保持不变 [2] - 推出的豆包大模型1.6lite相比旗舰版本更轻量、推理速度更快,在企业级场景测评中较豆包1.5pro提升14%,在0—32k输入区间综合使用成本降低53.3% [2] - 公司发布智能模型路由,这是国内首个针对模型智能选择的解决方案,可自动为任务请求选择最合适的模型,目前已支持豆包大模型、DeepSeek等多种主流模型 [2] 市场表现与行业地位 - 截至今年9月底,豆包大模型日均tokens调用量已突破30万亿,相比5月底增长超80% [1] - IDC报告显示,在2025年上半年中国公有云大模型服务市场,火山引擎以49.2%的份额占比位居中国第一 [1] 行业发展趋势 - 全球AI大模型正朝三个方向发展:深度思考模型与多模态理解能力融合、视频图像语音模型逐步实现生产级水平、企业级复杂智能体正在走向成熟 [1] - 在服务企业用户过程中发现,开启深度思考模式可使模型效果平均提升31%,但会提高延迟和成本,导致其在实际应用中的使用占比仅有18% [2]