豆包大模型Token使用量达到行业领先量级 - 火山引擎公布豆包大模型日均Token使用量已突破120万亿 [2] - 该数字放眼全球都是一个非常极端的Token量 [3] - 换算成工程指标相当于每秒并发处理13.9亿Token [7] 120万亿Token/日的行业对比与意义 - 全球能将Token日均吞吐做到百万亿级别的公司屈指可数 [6] - 该数字意味着字节正在经历超大规模AI平台的运营验证 [9] - 当Token消耗量达到此量级,行业关注重心转向平台的基础设施能力,如推理吞吐、时延控制、成本优化等 [10] - 谁能持续承接海量Token,谁就更可能在下一轮AI竞争中掌握供给能力、结算能力和平台地位 [12] 主要AI公司的Token处理量对比 - OpenAI API平台每分钟处理60亿Token,折算约8.64万亿/日(仅API)[13] - Google Gemini处理Token达1300万亿/月,折算约43万亿/日(2025年10月)[13] - 微软2025财年Q3单季度超100万亿Token,单月最高50万亿,粗算约合1.7万亿/日 [13] 豆包Token使用量的增长趋势与驱动因素 - 豆包大模型日均Token使用量最近三个月翻了一倍,两年时间里暴增1000倍 [15] - 近期高速增长的核心驱动因素是AI视频创作的爆发与AI智能体的加速普及 [16] - 视频生成是重负载场景,如Seedance 2.0生成15秒视频约需30.888万Token,生成10秒1080p视频约消耗35万Token [18] - 一部AI漫剧作品的Token消耗可达上亿 [20] - 智能体任务涉及多步骤模型调用,带来单次任务Token消耗强度的大幅上升,而非简单的用户数增加 [23][24][25] Token消耗结构与应用场景的演变 - 豆包大模型的Token结构正在变化,新增量越来越多地来自更高消耗、更高工作流的企业级场景 [26][28] - 企业级、重任务的场景正更快地推动Token增长 [30] - OpenAI企业报告显示,已有9000多家组织累计处理超100亿Token,其中近200家超1万亿Token [31] - 单个组织的推理Token消耗在过去12个月里增长了约320倍 [31] - 英伟达CEO黄仁勋指出,Agentic AI消耗的Token可能是一次普通生成式提示的100万倍 [33] 未来Token成本与消耗趋势预测 - Gartner预测,到2030年,运行一个1万亿参数模型的推理成本相比2025年会下降90%以上 [35] - 2030年的大模型将比2022年同等级模型实现最高100倍的成本效率提升 [35] - 未来几年,单个Token将更便宜,但总Token会更多 [36] - 企业侧Token若迎来指数级爆发,能承接超大规模负载的AI基础平台将成为抢手资源 [38] 长期行业展望与市场预测 - IDC预测,2030年全球Agent将达22.16亿个,年Token消耗约15亿亿(粗算约4110万亿Token/日),较2025年增长3亿倍 [45] - 豆包大模型120万亿Token/日的现状,可视为对未来市场规模的预演 [45] - 当AI从辅助工具变成生产基础设施,企业选型逻辑必须改变 [45] 企业选择AI基础设施需考虑的关键问题 - 企业需评估平台稳定性能否保障,以及大规模承载能力能否转化为金融级的确定性 [46] - 需考虑技术迁移成本,若深度绑定特定生态,未来迁移成本可能较高 [46] - 需管理预算,例如Seedance生成广告片迭代50次可消耗数千万Token,Agent处理复杂工作流单次推理Token消耗十万起步 [46] - 企业需建立ROI衡量标尺,如对比不同厂商的Token效率,或推动从按Token计费转向按效果计费 [47] - 选择AI基础设施就是押注企业的AI未来 [48]
一天烧掉120万亿Token,字节震惊全球
阿尔法工场研究院·2026-04-03 20:08