AI Tokens调用量
搜索文档
数据 有悲有喜
小熊跑的快· 2025-10-27 07:23
大语言模型竞争格局 - Grok Code Fast 1模型训练数据量为1.25万亿tokens,由x-ai公司开发,数据量占比16% [3] - Claude Sonnet 4.5模型训练数据量为5270亿tokens,由anthropic公司开发,数据量占比15% [3] - Gemini 2.5 Flash模型训练数据量为2980亿tokens,由google公司开发,数据量占比43% [3] - Gemini 2.5 Pro模型训练数据量为1680亿tokens,由google公司开发,数据量占比110% [3] - Claude Sonnet 4模型训练数据量为1580亿tokens,由anthropic公司开发 [3] - Grok 4 Fast模型训练数据量为1540亿tokens,由x-ai公司开发,数据量占比19% [3] - Gemini 2.0 Flash模型训练数据量为1470亿tokens,由google公司开发,数据量占比11% [3] - DeepSeek V3 0324模型训练数据量为1100亿tokens,由deepseek公司开发,数据量占比44% [3] - Gemini 2.5 Flash Lite模型训练数据量为1070亿tokens,由google公司开发,数据量占比138% [3] - GPT-40-mini模型训练数据量为998亿tokens,由openai公司开发,数据量占比7-40% [3] 行业动态与市场表现 - 以Grok为代表的大模型受到关注 [1] - ChatGPT因浏览器发布导致数据量暴增 [1] 产业链与资本开支 - 预计算力需求持续,台积电等芯片制造商将继续受益 [5] - 投资机构持续追踪大型科技公司财报 [5]