谷歌AI的Tokens处理规模 - 谷歌每月处理的Tokens用量达到1.3千万亿个,相当于约2.17千万亿个汉字 [1] - 以《红楼梦》约70-80万字计算,该用量相当于每月处理近30亿本《红楼梦》的对话内容 [1] - 谷歌Tokens处理量从一年前的月均9.7万亿个增长至当前的千万亿级别,呈现连续暴涨态势且未见放缓迹象 [3][6] 谷歌Tokens处理量的增长轨迹 - 5月份月均处理量为480万亿个Tokens [5] - 7月份月均处理量增长至980万亿个Tokens [5] - 10月份月均处理量达到1.3千万亿个Tokens [5] 行业横向对比 - 微软三季度处理超过100万亿个Tokens,同比增长5倍,单月最高记录为50万亿个Tokens,处理能力未达千万亿级别 [8] - OpenAI的API调用量为每分钟60亿个Tokens,换算成月度总量约为260万亿个Tokens [8] - OpenAI、字节跳动、百度等公司均达到了日均万亿个Tokens的处理量级 [8] - 谷歌在“千万亿”级别的Tokens处理量上处于行业独一档地位 [8] 谷歌AI的其他关键运营数据 - 超过1300万开发者使用谷歌模型进行开发 [9] - Gemini模型已生成2.3亿个视频和130亿张图像 [9] - 使用谷歌AI概览功能的用户达到20亿 [9] - 65%的客户已经在使用谷歌的AI产品 [9] Tokens消耗量的行业意义 - Tokens消耗量已成为衡量大模型公司实力的关键竞争指标 [14] - Token是预训练语料规模、上下文长度、推理长度及商业价值的衡量单位 [15] - Token是大模型推理算力的计量单位,芯片厂商通过“每秒生成Token的数量”证明硬件能力 [16] - Token是大模型API的定价单位,更高的消耗量意味着更大的商业价值和行业影响力 [16] 行业价值新标准 - 行业诞生以“10亿Tokens日均消耗”为门槛的价值红线,取代融资估值作为检验标准 [17] - 日均10亿Tokens消耗代表大模型应用落地的新趋势和入门级水准 [18] - 单客户百万亿、千万亿Tokens消耗被视为更值得期待的发展目标 [18] - 谷歌远超该入门标准,为行业树立了新的标杆 [18]
谷歌月Tokens消耗量领跑全球了:1300000000000000(别数了是千万亿)