Workflow
Token
icon
搜索文档
阿里云(2):Token 爆发在即,看好全栈玩家突围
长江证券· 2026-01-31 22:58
行业投资评级 - 投资评级为“看好”,并维持此评级 [11] 报告核心观点 - 观察海外AI产业发展路径,从大厂密集投入资本开支到Token爆发存在约两年的滞后期,国内大厂投入滞后海外一年,预计国内Token数量将在2026年迎来真正爆发 [3][6][8] - 在Token爆发的背景下,云厂商作为AI应用的“血液”将率先受益 [3][9] - 横向对比,具备全栈式AI布局的企业更容易将模型进步转化为业务收入或壁垒,从而率先形成AI投资回报的正循环,看好这类玩家突围 [3][9] 海外AI产业发展观察 - 海外AI产业从2023年大厂密集投入资本开支,到2025年Token爆发,中间存在约两年滞后期 [6][21] - 2023年为AI投入周期开启阶段,海外大厂开始大幅投入资本开支 [21] - 2024年,资本开支主要用于昂贵的大模型训练,例如GPT-4训练成本预计超过7800万美元,同年大模型进入密集迭代期,头部云厂商如AWS、Azure、GCS的收入增速开始明显抬升 [30][32][36] - 2025年,随着部分场景如编程、多模态等逐步跑通,需求侧核心指标Token数开始高速增长,例如谷歌2025年9月处理的Tokens用量已达1300万亿,日均处理43.33万亿 [38][40] 国内AI产业发展现状与预判 - 国内大厂AI资本开支投入周期较海外滞后约一年,于2024年下半年正式开启 [3][7][45] - 国内头部模型水平基本滞后海外一年到一年半,与投入周期滞后时间一致 [7][46] - 2024年至2025年,国内头部云厂商收入已率先反映AI投入回报,例如阿里云收入同比增速从最低点的3%迅速回升至最新一季度的26% [7][48] - 以字节为代表的国内大厂日均Token消耗量在2025年下半年开始上升,但与海外相比仍有较大差距 [7][54] - 参照海外周期,国内Token数量有望在2026年迎来真正爆发,随着编程和多模态模型产品成熟,下游应用场景有望被真正打开 [3][8][52] 云计算行业的受益逻辑与竞争格局 - AI时代,云与大模型紧密绑定,成为推理范式下的算力核心,将率先受益于Token爆发 [9][56] - AI为云计算带来新的需求,主要是IaaS层和模型即服务层需求,并有望推动商业模式从资源定价转向价值定价,长期提升云基础资源毛利水平 [9] - 模型实力将在很大程度上决定云的竞争力,例如阿里云在AI云市场的占有率(35.8%)高于其在传统IaaS市场的占有率(约26%) [56] - 预计2025年至2030年,中国AI云市场复合年增长率(CAGR)为26.8% [56] 全栈AI玩家的竞争优势 - AI当前变现手段有限,主要依赖广告、编程、订阅、云计算等,非常依赖于企业原有的业务底蕴和用户积累 [9][60] - 大厂之间的竞争胜负手在于:模型能力是否顶尖或在特定赛道有统治力;以及是否拥有全栈式AI布局以形成更有效的商业闭环 [9][60] - 全栈AI玩家更容易将模型的每一次进步转化为业务收入或壁垒,形成商业正循环 [3][9] - 谷歌是形成有效商业闭环的范例,其具备“模型(Gemini)+加速器(TPU)+数据中心网络(OCS)+场景(搜索+广告+Android终端)”的全栈布局,并在股价上体现超额收益 [61][63] - 阿里云已完成从底层算力到模型服务平台再到Agent开发平台的全栈AI布局,其通义千问模型能力获行业认可 [67][72] - 通义千问系列模型表现优异,Qwen3-Max-Thinking总参数规模超1万亿,预训练数据规模达36T Tokens,性能可与国际顶级闭源模型竞争 [72] - 通义千问在开源社区影响力巨大,衍生模型数突破20万个,下载量突破10亿次,居全球开源大模型第一 [76] - 阿里在C端应用入口侧持续发力,千问APP上线23天月活跃用户数突破3000万;灵光APP上线4天下载量突破100万;蚂蚁阿福依托支付入口和医疗资源网络打造健康陪伴应用 [78][80][81]
唐杰、杨植麟、林俊旸、姚顺雨:他们眼中的 AGI 三个转折点
虎嗅APP· 2026-01-11 17:52
文章核心观点 文章基于AGI-Next前沿峰会上多位中国AI领域核心人物的讨论,总结出当前中国大模型产业发展的三大核心趋势:单纯依赖扩大模型规模(Scaling)的范式面临效率瓶颈,行业正在寻求下一代范式;Token效率正成为决定大模型能力上限和国内竞争格局的关键因素;中美大模型因市场环境、Lab文化等差异,正走向不同的演进路径[10][11]。 趋势一:Scaling之外,新的范式正在成为新命题 - 行业对单纯依赖扩大算力、数据和参数规模的Scaling路径产生反思,认为其边际收益正在收窄,智能提升的增量持续变小,而成本呈指数级增长,效率已成为瓶颈[7][14] - 清华大学教授唐杰指出,继续Scaling的价值受到质疑,这成为一种“相对偷懒的方式”,核心目标应转向用更少的投入换取更高质量的智能增量[7][14][15] - 行业共识是下一代范式将围绕“自主学习”,但该概念目前仍是一组尚未被充分展开的问题集合,真正的瓶颈在于数据来源和任务定义[16] - 腾讯首席AI科学家姚顺雨观察到,自主学习已以温和方式发生(如ChatGPT拟合人类表达),但受限于预训练能力与通用底座,更大的突破可能要到2026年才会出现迹象[17] - 新范式的挑战不仅在于技术,还在于想象力和验证方法,同时商业化进程可能影响创新基因,这使得新范式在全球范围内都尚未清晰落地[17][18] 趋势二:Token效率愈加成为国内大模型能力的决定性因素 - Token效率已从训练效率问题,上升为直接决定模型智能上限和能走多远的结构性约束[8][20][22] - 月之暗面创始人杨植麟指出,预训练阶段的Token总量是常量,一旦消耗完,模型智能上限即被锁死,因此关键在于每个Token能换来多少有效智能[8][21][22] - 在长上下文(上千至数十万Token)和Agent任务成为主流后,Token的位置损耗显著,其利用效率直接决定了模型处理复杂推理和搜索任务的潜力[22][24] - 月之暗面在过去一年将核心工作集中于提升Token效率,在其K2模型中通过新优化器与架构设计,实现了用一半数据达到相同效果,获得了等价于一次Scaling的收益[23] - Token效率与长上下文能力是需要同时优化的乘积变量,共同构成Agent能力放大的基础,这正在重塑国内大模型的技术路线选择[24][25] 趋势三:中美大模型正在走向不同的演进路径 - 中美大模型的差距并非简单的“能力高低”,而是市场环境、应用场景和Lab文化差异导致的两条分叉演进路径[26][27][29] - 美国市场的大模型发展明显向生产力与企业级场景集中(如Coding与Agent),模型能力直接重塑工作方式并与个体生产力强绑定,因此市场对模型能力的价格容忍度更高,模型被视为可直接定价的“生产资料”[27] - 相比之下,中国企业对成本高度敏感,且toB场景碎片化,需求更侧重于稳定性、可控性与交付效率,而非单点“最强智能”,模型更像是一种被嵌入既有系统的基础能力,难以独立获得高溢价[27][28] - 底层Lab文化存在差异:美国鼓励长期投入高风险、高不确定性的前沿问题研究;而中国的研究环境更强调效率、反馈周期以及与业务目标的紧密对接,更倾向于做“安全的事情”[29] - 这种文化差异导致美国更关注“什么是正确的事情”和自身体验,而中国则相对更看重“刷榜或数字”,最终使得中美大模型的演进路径分化,差距越来越少被理解为“领先或落后”,而是不同现实条件下的不同路线选择[29]
阿里云进化论(1):行业层面为何看好明年应用爆发?
长江证券· 2025-12-07 16:59
报告行业投资评级 - 投资评级:看好,维持 [6] 报告的核心观点 - 核心观点:参照海外AI产业发展规律,从资本开支投入到Token需求爆发存在约两年的滞后期。国内大厂的AI资本开支周期较海外滞后约一年,于2024年下半年开启。因此,国内云厂商收入已开始兑现增长,而Token数量的真正爆发预计将在2026年到来 [1][3][4][5] 海外AI产业发展路径总结 - **阶段一 (2023年):资本开支高投入期**:海外大厂自2023年下半年开始大幅增加资本开支,正式开启AI投入周期。例如,五家海外大厂(谷歌、微软、亚马逊、Meta、苹果)的合计资本开支在2023年第四季度达到453.99亿美元,同比增长5%,并在2024年第一季度同比增速跃升至26% [11][12][13] - **阶段二 (2024年):模型迭代与云收入高增期**:巨额资本开支首先用于昂贵的大模型训练(如GPT-4训练成本超7800万美元)。2024年成为大模型密集迭代的高峰期(如OpenAI发布Sora、GPT-4o等),同时云厂商收入增速明显抬升,反映了AI在企业端渗透率的提升 [19][22][23] - **阶段三 (2025年):Token需求爆发期**:需求侧核心指标Token消耗量自2025年,尤其是下半年开始高速增长,表明搜广推、编程、多模态等应用场景逐步跑通。例如,谷歌2025年9月日均处理的Token数达43.33万亿,较一年前暴增 [26][28] 国内AI产业发展现状与预判总结 - **资本开支周期滞后**:国内大厂(以百度、腾讯、阿里为代表)的AI资本开支周期整体滞后海外约一年,于2024年下半年正式开启。2025年第一季度,百度、腾讯、阿里的资本开支合计达550亿人民币 [31][32] - **模型水平滞后**:国内头部大模型水平基本滞后海外一年到一年半,与资本开支的滞后周期基本一致 [1][33] - **云收入已兑现增长**:国内公有云龙头阿里云的收入同比增速已从低点的3%迅速回升至最新一季度的26%,率先反映了AI投入的回报 [4][35] - **Token消耗开始起量但差距仍存**:以字节跳动为代表的国内大厂日均Token消耗量在2025年下半年开始上升,但根据OpenRouter数据,国内可追踪的Token消耗量与海外相比仍有较大差距 [4][38][40][44] - **2026年展望:Token爆发大周期**:参照海外约两年的回报周期,国内Token数量有望在2026年迎来真正爆发。随着编程和多模态等模型与产品逐步成熟,下游应用场景有望被真正打开,带来大量高质量Token需求 [5][40]
两大AI巨头走出各自主赛道 巴克莱:OpenAI主导消费级AI,Anthropic斩获企业客户青睐
智通财经网· 2025-10-20 15:13
消费级AI应用市场格局 - OpenAI的ChatGPT周活跃用户突破8亿,API每分钟处理约600亿个Token,消耗量是谷歌Gemini的两倍以上 [1][1] - ChatGPT每月生成超过420万亿个推理Token,而谷歌Gemini App月活用户4.5亿,仅产出约190万亿个Token,体量不足ChatGPT一半 [2] - 谷歌Gemini App的日请求量环比增长50%,但增长速度仍不及ChatGPT的Token消耗增速 [2] 企业级AI市场竞争态势 - Anthropic公司在企业级市场已获得相当于OpenAI两倍的收入份额,其年化收入运行率在2025年8月突破50亿美元,目标在2025年底达到90亿美元,2026年底达到200亿美元 [2] - Anthropic的企业客户超过30万家,年付费超过十万美元的客户数量在一年内增长近七倍 [2] - 在企业级推理Token领域,Anthropic已建立起相当可观的领先优势 [3] 谷歌的AI业务现状 - 谷歌所有服务每月处理1.3万亿个Token,其中搜索用户贡献了约900万亿个Token,搜索用户数量已接近25亿 [1][3] - 谷歌的Token总量领先,但主要依赖传统搜索业务,在原生消费级AI应用细分赛道上落后于OpenAI [1] - 公司面临被OpenAI在消费级市场和Anthropic在企业级市场双向挤压的竞争格局 [3]
B端战场的AI叙事:一场极致的效率和场景争夺战|AI观察系列策划②
每日经济新闻· 2025-10-09 19:05
AI投资与商业化趋势 - AI领域投资重点转向B端项目,核心考量商业化闭环和变现能力[1] - Token调用量成为衡量AI公司实际采用规模与增长潜力的核心标尺,如同互联网时代的用户数[1] - 大模型调用场景发生显著变化,从离线的打标和娱乐性场景,转向在线任务大幅上升,互联网公司和消费电子企业的大部分交互已开始由大模型取代[1] Token消耗规模与增长 - 中国日均Token消耗量从2024年初的1000亿增长至2025年6月底的突破30万亿,一年半时间增长超过300倍[2][4] - 2025年上半年中国企业级大模型日均调用量较2024下半年大增363%,已超过10万亿Tokens[4] - 大模型企业级市场呈爆发式增长,调用量最大的公司是互联网和消费电子企业,其次制造业、传统企业、政府部门和金融机构的调用量也有增长[4] 大模型市场竞争格局 - 中国大模型市场前三名份额合计超40%,其中阿里通义占比17.7%,字节豆包占比14.1%,DeepSeek占比10.3%[4] - 企业正从追求单一最强模型,转向为特定业务场景寻求最优解,对不同模态、尺寸和落地场景匹配的需求将爆发[4] - 模型供给呈现丰俭由人态势,快速匹配多元化市场需求[5] 行业应用与AI Agent发展 - 中国AI应用以生产力工具为主导,垂类行业的B端需求强劲,AI+工业的政策空间和应用空间较大[5] - 企业基于业务需要和成本考量,更倾向选择适配自身需求的底层大模型,而非一味追求大尺寸和强性能[6] - AI Agent被视为有望替代原有SaaS系统的技术,企业正加大布局,中基宁波集团计划在内部搭建100个有效智能体[5][6][7] 企业选型考量与模型趋势 - 企业在模型侧的选择主要考量五个方面:稳定性、效率、成本、服务响应和易用性[6] - 模型小型化成为未来几年的关键趋势,务实和好用成为B端企业调用大模型的基本原则[6] - 对于需要快速识别的场景使用小模型以降低Token消耗成本,对于深度推理则使用满血版模型[6] SaaS行业变革与商业模式 - SaaS行业长期面临用户付费意愿低、企业盈利难的问题,AI浪潮下有望改善边际,通过帮客户创造新价值来分得更多利润[7] - 钉钉颠覆SaaS商业模式,推行按结果付费,发布十余款AI产品,强调商业结果可交付[9] - AI应用的竞争最终将回到行业认知、模型工程能力以及实际应用效果,用户只会为效果买单[11] 技术演进与未来挑战 - AI技术从单一的大语言模型向多模态演进,从Copilot切换到Agent,从纯软件端向软硬件一体摸索[1] - AI Agent在稳定性方面有严格要求,不同企业对智能体的算力部署方式会提出严格要求,能力还需不断迭代[6][10] - 垂类行业应用中,知识库和数据库的沉淀积累将成为AI Agent企业的护城河,从数据到语料的处理是主要挑战,50%至70%的客户指导时间用于处理此关系[8][12]
吴泳铭为阿里AI设定航线:做操作系统,更要做下一代计算机|附全文
21世纪经济报道· 2025-09-24 16:00
阿里云AI战略核心观点 - 大模型是下一代操作系统 将取代传统OS成为连接用户 软件与AI计算资源的中间层 [1] - 通义千问坚定走开放路线 致力于成为AI时代的Android 与全球开发者共建AI应用生态 [1] - 开源模型能渗透的场景和创造的价值远超闭源模型 通义千问开源模型全球下载量超6亿次 衍生超17万个模型 [1] AI发展趋势与阶段 - AI发展将经历三阶段:智能涌现(学习人) 自主行动(辅助人) 自我迭代(超越人) [6][7][8] - 当前处于自主行动阶段 AI具备使用工具能力 可连接数字化工具完成真实世界任务 [6][7] - 未来AI需连接物理世界全量原始数据并实现自主学习 才能实现自我迭代升级 [8][10] 超级AI云战略布局 - 阿里云全力打造AI超级计算机 提供从自研芯片 网络 存储到模型平台的全栈AI服务 [2][19] - 推进三年3800亿元AI基础设施建设计划 2032年全球数据中心能耗规模将达2022年的10倍 [2][20] - 全球AI行业投资总额超4000亿美元 未来5年累计投入将超4万亿美元 [3] 模型生态与开发者支持 - 通义千问开源300多款模型 覆盖全模态全尺寸 提供一站式模型服务平台百炼和Agent运行环境 [19] - 通过开源将开发者规模从数千万扩展至数亿 让任何人用自然语言创造满足自身需求的Agent [1][14] - 模型部署方式将多样化 运行在所有计算设备中并具备可持久记忆和端云联动能力 [14] 未来应用场景与影响 - AI将重构基础设施 软件和应用体系 成为真实世界核心驱动力 [23] - 未来每个人将拥有数十甚至上百个Agent 24小时不间断工作协同 [16][22] - AI将指数级放大人类智力杠杆 使10小时产出实现十倍百倍提升 [22]
无问芯穹发起人汪玉:Token已成为智能时代最核心的生产要素之一
IPO早知道· 2025-09-01 10:14
文章核心观点 - 人工智能基础设施效能评价核心指标正从"每焦耳能量支持的计算次数(TOPS/J)"转变为"每焦耳能量处理的有效Token数量(Tokens/J)"[3] - Token已成为大模型时代最核心的生产要素之一 是AI模型输入输出的基础单元[3][5] - 软硬件协同优化是提升单位能耗下Token效率的关键路径 需从芯片设计、互联技术到集群架构全面优化[3][9][11] AI基础设施效能评价体系变革 - AI 1.0时代芯片评价标准为每焦耳TOPS AI 2.0时代转变为每焦耳Tokens/J[6] - 不同智能等级对Tokens/J能效需求差异显著:Level 2差1-2个数量级 Level 3差2-3个数量级[7] - 高质量Tokens/J需持续演进 从简单对话到AI for Science需确保大模型推理性能不受影响[7] 神经网络优化技术路径 - 通过稀疏化优化矩阵运算:零元数量可从50%增加到75% 稀疏模式从非结构化发展到结构化稀疏[9] - 量化技术从32比特浮点发展到FP8、FP4 国产芯片正逐步支持更高效数据表示[10] - 神经网络可学习特性支持算法与硬件协同优化 在保证精度前提下减少计算开销[9] 算力系统架构演进 - 算力集群构建需经历晶圆级集成、芯片互联、服务器互联、集群整合的逐级集成过程[11] - 系统优化分三个层级:小盒子(计算优化)、中盒子(芯片间协同)、大盒子(万卡级资源调度)[12] - 万卡至十万卡规模需解决系统稳定性、容错管理和任务正确性等关键问题[12] 端侧与云侧能效挑战 - 端侧应用需求与现实能力存在10倍差距 需实现20 Tokens/J能效和100-200 Tokens/s推理速度[12][15] - 云侧正从能效角度推进优化 提升每节点Tokens/J实现可持续计算[12] - 2025 WAIC已展示峰值200 Tokens/s的端侧方案[12] 智能体演进带来的系统挑战 - 从单模型到多智能体协作时 GPU利用率降低、动态性增强、开销增大[14] - 多智能体面临并行性、上下文处理、工具复杂度等挑战 需系统级工具支持[14] - 具身智能推动研究重心从云侧芯片向端侧推理演进 是智能系统迈向物理世界的关键[15] 产业生态建设 - 需优化多元异构生态 从基础设施层、模型层到应用层做联合优化[13] - 算力集群已覆盖北京、上海等多省市 服务主要算力消耗方[14] - 正积极适配各类端侧芯片 服务联想等合作伙伴 推动AI云能力赋能千行百业[15]
算力,究竟是个什么“力”?
搜狐财经· 2025-08-26 15:28
算力定义与核心属性 - 算力即计算能力,是集信息计算力、网络运载力、数据存储力于一体的新型生产力,主要通过算力基础设施向社会提供服务 [4] - 算力是对数据的处理能力,支撑智能音箱响应指令、电子支付实时清算、在线购物个性化推荐、电影特效处理等日常生活应用 [4] - 在数字经济时代,算力如同水、电、燃气等公共基础资源,已走进千家万户、服务千行百业 [4] 算力分类与发展特征 - 算力根据使用设备和提供强度不同分为三类:基础算力(用于办公、上网、看视频等基础通用计算)、智能算力(用于复杂数据分析和人工智能任务)、超算算力(用于科学研究和工程计算)[5][6][7] - 近年来中国算力总规模年增速达到30%左右,智能算力需求呈现迅猛增长态势 [7] - 当前算力发展呈现"智算主导、多元协调发展"的特征 [7] 算力规模与衡量指标 - 算力衡量专业指标为FLOPS(每秒浮点运算次数),单位包括MFLOPS(百万次)、GFLOPS(十亿次)、TFLOPS(万亿次)、PFLOPS(千万亿次)、EFLOPS(百亿亿次)[9] - 截至2025年6月底,中国智能算力规模达788 EFLOPS,占全球总规模的32%,稳居全球第二 [10] 人工智能相关术语与市场动态 - Token是处理文本的最小数据单元,在语言类模型中用于将长文本分解为以Token为单位的数据结构进行计算 [11] - 中国日均Token消耗量从2024年初的1000亿增长至2025年6月底的30万亿,一年半时间增长300多倍,反映人工智能应用规模快速增长 [11] - 边缘计算是指数据收集分析发生在靠近数据生成的本地设备和网络中,而非集中化云端,适用于智能工厂等需要毫秒级响应的实时处理场景 [11]
算力,究竟是个什么“力”
新华社· 2025-08-25 23:04
算力定义与分类 - 算力即计算能力 是集信息计算力 网络运载力 数据存储力于一体的新型生产力 主要通过算力基础设施向社会提供服务 [3] - 算力分为三类:基础算力用于基础通用计算 智能算力用于复杂数据分析和人工智能任务 超算算力用于科学研究和工程计算 [3][4][5] - 算力总规模年增速达30% 智能算力需求迅猛增长 呈现"智算主导 多元协调发展"特征 [5] 算力规模与衡量标准 - 中国智能算力规模达788EFLOPS(百亿亿次/秒) 占全球总规模的32% 稳居全球第二 [7] - 衡量指标FLOPS包含多个层级:MFLOPS(百万次) GFLOPS(十亿次) TFLOPS(万亿次) PFLOPS(千万亿次) EFLOPS(百亿亿次) [7] - 超级计算机"前沿"峰值性能突破1EFLOPS 相当于80亿人持续按键近40年的运算量 [7] 人工智能相关术语 - Token是处理文本的最小数据单元 在语言模型中用于文本分词和模型计算 [7] - 中国日均Token消耗量从2024年初1000亿增长至2025年6月底30万亿 一年半增长300多倍 反映人工智能应用规模快速扩张 [8] - 边缘计算指在数据生成的本地设备进行处理 而非传输至云端 适用于需要毫秒级响应的实时场景(如智能工厂) [9]
国内多数模型训练使用中文数据占比超60%
人民日报· 2025-08-19 06:31
中文数据在AI模型训练中的重要性 - 中文数据在国内大模型训练中占比超过60%,部分模型达到80% [1] - 中文高质量数据开发和供给能力持续增强,推动人工智能模型性能快速提升 [1] AI应用规模增长数据 - 2024年初日均Token消耗量为1000亿,2024年6月底突破30万亿 [1] - 一年半时间内Token消耗量增长300多倍,反映人工智能应用规模快速增长 [1]