字节豆包2.0发布:推理成本降一个数量级,正面对标GPT-5和Gemini 3
硬AI·2026-02-14 19:37

豆包2.0模型发布与核心升级 - 公司正式发布豆包大模型2.0系列,包含Pro、Lite、Mini三款通用Agent模型和专门的Code模型,标志着其进入2.0阶段 [3] - 旗舰版豆包2.0 Pro全面对标GPT-5.2与Gemini 3 Pro,在多数视觉理解基准测试中达到业界最高水平 [3] - 新模型在保持与业界顶尖模型相当性能的同时,将推理成本降低约一个数量级,显著提升了大规模生产环境下复杂任务执行的性价比 [2][3][12] 多模态能力表现 - 模型全面升级多模态能力,在视觉推理、感知能力、空间推理与长上下文理解等任务上表现突出 [6] - 在动态场景理解方面,模型在TVBench等关键测评中领先,在EgoTempo基准上甚至超过人类分数 [8] - 在长视频场景中,模型在大多数评测上超越其他顶尖模型,并在多个流式实时问答视频基准测试中表现优异,使其能够应用于实时视频流分析、环境感知、主动纠错与情感陪伴等场景 [8] 推理与专业能力 - 豆包2.0 Pro通过加强长尾领域知识,在SuperGPQA上分数超过GPT-5.2,并在HealthBench上获得第一名,在科学领域的整体成绩与Gemini 3 Pro和GPT-5.2相当 [10] - 模型在推理和Agent能力评测中表现出色,在IMO、CMO数学奥赛和ICPC编程竞赛中获得金牌成绩,超越了Gemini 3 Pro在Putnam Bench上的表现 [10] - 在HLE-text(人类的最后考试)上,豆包2.0 Pro取得最高分54.2分,在工具调用和指令遵循测试中也有出色表现 [10] 成本优势与商业化应用 - 模型在保持顶尖性能的同时,token定价降低了约一个数量级,这一成本优势在大规模推理与长链路生成场景中成为关键竞争力 [4][12] - 基于OpenClaw框架和豆包2.0 Pro模型,公司在飞书上构建了智能客服Agent,能够完成客户对话、拉群求助、预约维修和主动回访等复杂任务 [13] - 这标志着公司在大模型商业化应用上迈出重要一步 [4] Code模型与开发效率 - 豆包2.0 Code基于2.0基座模型针对编程场景优化,强化了代码库解读能力、应用生成能力以及在Agent工作流中的纠错能力 [15] - 该模型已上线AI编程产品TRAE中国版作为内置模型,支持图片理解和推理 [15] - 开发者使用TRAE配合豆包2.0 Code,仅需1轮提示词就能构建出“TRAE春节小镇·马年庙会”互动项目的基本架构,经过5轮提示词即可完成整个包含11位AI驱动NPC的复杂作品 [15][16] 产品上线与未来规划 - 豆包2.0 Pro已面向C端用户在豆包App、电脑端和网页版上线“专家”模式;面向企业和开发者,火山引擎已同步上线豆包2.0系列模型API服务 [17] - 公司表示未来将继续面向真实场景迭代模型,探索智能上限 [18]

字节豆包2.0发布:推理成本降一个数量级,正面对标GPT-5和Gemini 3 - Reportify