豆包系列模型
搜索文档
春节AI大战只是表象?摩根大通:token消耗量将进入高速增长期,五年或增长370倍!
华尔街见闻· 2026-02-10 22:05
核心观点 - 春节期间的AI应用推广战本质是用户习惯从传统搜索向聊天机器人迁移 这将推动AI推理Token消耗量进入一个长达多年的高速增长期 [1] - 投资焦点应放在更具确定性的“二阶赢家” 包括直接受益的AI基础设施商及具有网络广告业务敞口的公司 [1][2] 行业趋势:用户习惯与Token消耗 - 消费者获取信息和消费内容的方式正在发生结构性改变 各大科技平台投入资金推广旨在加速用户从传统搜索转向聊天机器人并培养智能体商业习惯 这一进程推升了推理量 从而加快了Token的消耗速度 [1] - 预测2025年至2030年 中国Token消耗量的年复合增长率将高达330%左右 [2] - 中国的AI推理Token消耗量预计将从2025年的约10千万亿 增长至2030年的约3,900千万亿 五年间增长约370倍 [5] - 截至2025年12月 字节跳动豆包系列模型的日均Token消耗量已突破50万亿 同比增长超10倍 [5] 驱动因素与结构变化 - Token消耗量爆发式增长主要由两个因素驱动:一是AI在消费者和企业工作负载中的渗透率提高 二是应用场景从简单的对话AI扩展到复杂的智能体和多模态输出 [5] - 推理需求的构成将发生显著变化 对话AI占总消耗量的比例预计将从2025年的近一半下降至2030年的高个位数 [5] - “知识工作者AI智能体”因涉及多步骤推理和文档工作流 预计到2030年将占总消耗量的三分之一 [5] - “多模态AI”随着图片、音频和视频工作负载的增加 份额将从目前的15%增长至接近40% [5] - Token增长并不线性等同于芯片需求增长 新一代硬件带来的推理性能提升以及软件堆栈优化 使每GPU小时处理的Token量也在显著改善 [6] 公司策略分析 - **腾讯**:采取“增长优先”策略 投入10亿元人民币开展红包活动 利用微信社交轨道降低用户门槛以扩大“元宝”安装量和激活量 [3] - **阿里巴巴**:策略展现出结构性差异 宣布30亿元人民币的“春节请客计划” 目标不仅是提高“通义千问”采用率 更是培养“从AI界面发起交易”的智能体商业习惯 以缩短消费漏斗并提高转化效率 [3][4] - **百度**:投入约5亿元人民币 坚持“AI助手+搜索分发”的综合战略 试图将AI嵌入意图更强的搜索会话中 [4] - **字节跳动**:虽未公布大规模现金补贴 但凭借产品迭代和抖音等生态入口的分发能力 其豆包系列模型日活用户据报道已达到1亿 [4] 投资主题与机会 - 目前判断AI应用端的胜负为时尚早 更具确定性的投资机会在于“二阶赢家” [2] - “二阶赢家”包括中国AI基础设施的直接受益者 如阿里巴巴和百度 以及具有网络广告业务敞口的公司 如快手 [2] - 中国AI基建已成为TMT领域最具吸引力的投资主题之一 [2]
春节AI大战只是表现?摩根大通:token消耗量将进入高速增长期,五年或增长370倍!
华尔街见闻· 2026-02-10 19:23
文章核心观点 - 春节期间各大科技巨头的AI应用推广战是表面现象,更深层的趋势是消费者获取信息和消费内容的方式发生结构性改变,这将推动AI推理Token消耗量开启一个长达多年的高速增长期 [1] - 市场目前判断AI应用端的胜负为时尚早,更具确定性的投资机会在于“二阶赢家”,即AI基础设施的直接受益者以及具有网络广告业务敞口的公司 [1] AI应用推广战:策略与目标 - 腾讯在春节期间投入10亿元人民币开展红包活动,采用“增长优先”策略,利用微信社交轨道降低用户门槛,旨在短时间内扩大“元宝”的安装量和激活量 [2] - 阿里巴巴宣布了30亿元人民币的“春节请客计划”,集成淘宝、支付宝、飞猪和高德地图,其目标不仅是提高“通义千问”的采用率,更是为了培养“从AI界面发起交易”的智能体商业习惯,以缩短消费漏斗,提高转化效率 [2] - 百度投入约5亿元人民币,坚持“AI助手+搜索分发”的综合战略,试图将AI嵌入意图更强的搜索会话中 [3] - 字节跳动虽未公布大规模现金补贴,但其豆包系列模型日活用户已达到1亿,凭借产品迭代和抖音等生态入口的分发能力参与竞争 [3] - 巨头们愿意通过营销“购买时间”的关键原因在于,在流量入口层失去心智份额的代价极高 [3] Token消耗量增长预测与驱动因素 - 摩根大通预测,中国的AI推理Token消耗量将从2025年的约10千万亿增长至2030年的约3,900千万亿,五年间增长约370倍 [4] - 2025年至2030年,中国Token消耗量的年复合增长率将高达330%左右 [1] - 增长主要由两个因素驱动:一是AI在消费者和企业工作负载中的渗透率提高;二是应用场景从简单的对话AI扩展到复杂的智能体和多模态输出 [4] - 截至2025年12月,字节跳动豆包系列模型的日均Token消耗量已突破50万亿,同比增长超10倍 [4] Token消耗结构变化 - 对话AI占总消耗量的比例预计将从2025年的近一半下降至2030年的高个位数 [4] - “知识工作者AI智能体”因涉及多步骤推理和文档工作流,预计到2030年将占总消耗量的三分之一 [4] - 多模态AI(图片、音频和视频工作负载)的份额将从目前的15%增长至2030年的接近40% [4] 基础设施与投资机会 - 大型互联网平台的推广投入加速了用户从传统搜索转向聊天机器人,并培养智能体商业习惯,这一进程推升了推理量,从而加快了Token的消耗速度 [1] - 目前的GPU算力需求过剩或供不应求的状况将在未来几年持续 [1] - Token增长并不线性等同于芯片需求增长,因为新一代硬件(如英伟达Blackwell,推理性能4倍于Hopper)和软件堆栈优化,使得每GPU小时处理的Token量也在显著改善 [5] - 更具确定性的投资机会在于“二阶赢家”,包括中国AI基础设施的直接受益者(如阿里巴巴和百度)以及具有网络广告业务敞口的公司(如快手) [1] - 中国AI基建已成为TMT领域最具吸引力的投资主题之一 [1]
Agent浪潮席卷前,火山引擎再降价
第一财经· 2025-06-11 18:16
大模型价格下调 - OpenAI宣布将o3价格下调80% [3] - 火山引擎视频生成模型Seedance 1.0 pro每千Tokens仅0.015元,每生成一条5秒的1080P视频只需3.67元 [3] - 火山引擎豆包1.6模型在0-32K输入区间的综合成本仅为豆包1.5深度思考模型或DeepSeek R1的三分之一 [4] 降价驱动因素 - OpenAI降价主要基于推理服务架构的全面优化 [3] - 火山引擎降价原因包括工程优化和AI云原生服务中的ServingKit方案 [4] - Tokens调用规模快速增长,五个月内火山引擎Tokens消耗增长4.4倍,其中AI搜索增长10倍,AI编程增长8.4倍 [5] 云平台与算力优化 - OpenAI寻求与谷歌云合作以缓解算力压力 [3] - 云平台可通过混合调度打平推理的波峰波谷区间,降低成本 [3] - 火山引擎强调云业务是大模型发展的数字底座 [3] AI编程Agent发展 - 字节跳动AI编程Agent产品Trae月活用户数已超过100万 [7] - 字节跳动内部超过80%工程师使用类Trae产品进行辅助开发 [7] - 2025年可能成为中国Agent落地的元年 [7] Agent技术趋势 - 深度思考、多模态理解和工具自主调用是模型进化关键方向 [7] - Agent能够自主感知、规划和反思,完成复杂任务 [7] - 大模型和Agent开发平台是AI时代的关键要素 [7] Agent协议发展 - 火山引擎演示了MCP和GUI两种模型调用方式 [8] - MCP存在场景适用性局限,与GUI融合可提高调用效率 [8] - 火山引擎正在自研下一代MCP或类A2A协议 [8]