Workflow
Token
icon
搜索文档
无问芯穹发起人汪玉:Token已成为智能时代最核心的生产要素之一
IPO早知道· 2025-09-01 10:14
无问芯穹希望既能借AI云能力赋能千行百业,也助力新终端走入千家万户。 本文为IPO早知道原创 作者|Stone Jin 微信公众号|ipozaozhidao 据IPO早知道消息,由启明创投主办的2025世界人工智能大会(WAIC)"启明创投·创业与投资论坛 ——创业投资开启AI技术与应用共振周期"于7月28日在上海世博中心蓝厅成功举办。 在本次论坛上,清华大学电子工程系长聘教授、系主任,无问芯穹发起人汪玉发表了主题为《软硬协 同推进AI基础设施演进》的演讲。 汪玉指出,将人工智能真正转化为实际生产力的过程中,Token作为大模型输入输出的基本单元,已 成为智能时代最核心的生产要素之一。过去的价值链路是由电能驱动算力提升,以完成简单任务,而 现在则演变为将电能转化为算力,再由算力生成Token,最终支撑复杂任务的执行。伴随这一转变, 评 价 基 础 设 施 效 能 的 核 心 指 标 也 正 随 之 变 化 —— 传 统 的 " 每 焦 耳 能 量 所 能 支 持 的 计 算 次 数 (TOPS/J)"正被"每焦耳能量所能处理的有效Token数量(Tokens/J)"所取代。如何优化单位 能耗下的Token效率 ...
算力,究竟是个什么“力”?
搜狐财经· 2025-08-26 15:28
2025中国算力大会日前在山西大同举行。"算力"一词频繁出现在各类新闻报道和讨论之中。它究竟是什么"力"?通算、智算、Token等一个个术语 又代表什么意思? 图为2025中国算力大会开幕式现场。新华社记者 柴婷 摄 ■什么是算力? 算力即计算能力,其实我们每个人都拥有算力,比如口算、心算和速算等,只是算力有限。当进行复杂计算时,就要借助计算工具来提升算力。 从最早的结绳计算、算盘计算,到发展出计算机计算等。 如今,算力是集信息计算力、网络运载力、数据存储力于一体的新型生产力,主要通过算力基础设施向社会提供服务。 通俗讲,算力就是对数据的处理能力。它看不见、摸不着,却时刻影响着你我的生活,比如智能音箱响应用户指令、电子支付实时清算、在线购 物个性化推荐、电影的特效处理等,背后都有算力支撑。 可以说,在数字经济时代,算力如同水、电、燃气等公共基础资源一样,走进千家万户、服务千行百业。 ■算力可以分为几类? 在分类上,根据使用设备和提供算力强度的不同,中国信息通信研究院等机构将算力分为三类,即基础算力、智能算力和超算算力。 基础算力(通用算力),一般用于基础通用计算,比如办公、上网、看视频等,不需要太高的性能。 ...
算力,究竟是个什么“力”
新华社· 2025-08-25 23:04
算力定义与分类 - 算力即计算能力 是集信息计算力 网络运载力 数据存储力于一体的新型生产力 主要通过算力基础设施向社会提供服务 [3] - 算力分为三类:基础算力用于基础通用计算 智能算力用于复杂数据分析和人工智能任务 超算算力用于科学研究和工程计算 [3][4][5] - 算力总规模年增速达30% 智能算力需求迅猛增长 呈现"智算主导 多元协调发展"特征 [5] 算力规模与衡量标准 - 中国智能算力规模达788EFLOPS(百亿亿次/秒) 占全球总规模的32% 稳居全球第二 [7] - 衡量指标FLOPS包含多个层级:MFLOPS(百万次) GFLOPS(十亿次) TFLOPS(万亿次) PFLOPS(千万亿次) EFLOPS(百亿亿次) [7] - 超级计算机"前沿"峰值性能突破1EFLOPS 相当于80亿人持续按键近40年的运算量 [7] 人工智能相关术语 - Token是处理文本的最小数据单元 在语言模型中用于文本分词和模型计算 [7] - 中国日均Token消耗量从2024年初1000亿增长至2025年6月底30万亿 一年半增长300多倍 反映人工智能应用规模快速扩张 [8] - 边缘计算指在数据生成的本地设备进行处理 而非传输至云端 适用于需要毫秒级响应的实时场景(如智能工厂) [9]
国内多数模型训练使用中文数据占比超60%
人民日报· 2025-08-19 06:31
本报北京8月18日电 (记者王云杉)记者从国家数据局获悉:中文数据在国内大模型的训练性能提升方 面发挥着重要作用。国内多数模型训练使用的中文数据占比已经超过60%,有的模型达到80%。中文高 质量数据的开发和供给能力持续增强,推动我国人工智能模型性能快速提升。 在人工智能时代,Token(通常所说的词元)是处理文本的最小数据单元。国家数据局局长刘烈宏介 绍,2024年初,我国日均Token的消耗量为1000亿,截至今年6月底,日均Token消耗量已经突破30万 亿,1年半时间增长了300多倍,反映了我国人工智能应用规模的快速增长。 《 人民日报 》( 2025年08月19日 06 版) (责编:赵欣悦、袁勃) 关注公众号:人民网财经 ...
聚焦AI技术与应用共振,这场论坛发布十大展望
国际金融报· 2025-07-29 11:18
7月28日,2025世界人工智能大会(WAIC)"启明创投·创业与投资论坛——创业投资开启AI技术与应用 共振周期"在上海世博中心举办。 著名专家与学者,顶尖投资人和领军创业者汇聚一堂,围绕AI领域的技术突破、前沿趋势、应用落地 等主题展开分享与交流。 清华大学电子工程系长聘教授,无问芯穹发起人汪玉表示,AI具备形成生产力的潜力,其中数据是提 升生产力的关键要素。 "再就是Agent,这是从今年3月开始最火的话题。"周志峰认为,其的爆火是因为基础模型能力的提升。 如今,基础模型的上下文窗口更大,能够使用外部工具,核心还是"推理能力"的增强。现在甚至出现 了"智能体的摩尔定律"——任务处理复杂度每七个月翻一倍,"我们可以大胆地期待,Agent再经历一、 两个'七个月周期'后,会达到什么样的智能水平,或许会给我们带来更多的惊喜"。 作为中国在AI领域最早投资且布局最丰富的投资机构,这是启明创投连续第三年主办该论坛。从AI 1.0 到AI 2.0,启明创投累计投资100余个AI项目,投资企业覆盖AI产业全链条。 随后,周志峰围绕基础模型、多模态模型、AI Agent、AI基础设施、AI应用、具身智能,连续第三年发 ...
Token推动计算Compute需求:非线形增长
华泰证券· 2025-07-17 18:46
报告行业投资评级 - 科技行业评级为增持(维持),计算机行业评级为增持(维持) [6] 报告的核心观点 - 未来算力需求中存在Token调用量随推理扩展倍数增长、算力需求随Token增长倍数增长两个倍数关系,共同决定推理端未来算力需求广阔,目前市场存在较大预期差,长期看好算力需求持续快速增长 [89][90] 根据相关目录分别进行总结 New Scaling:不止于预训练,三条Scaling推动算力需求增长 - 市场认为预训练Scaling law可能见顶,但考虑后训练Scaling和推理Scaling,AI对算力需求仍有大量空间 [10] 从三条Scaling law的差异看为什么算力需求将继续增长 - 预训练和后训练Scaling属训练阶段,推理Scaling属推理阶段 [11] - 预训练Scaling性能和数据、参数量相关,后训练Scaling利用微调等技术提高模型能力和领域特异性,推理Scaling性能与推理时间相关 [13] 推理Scaling的必要性和算力消耗量化 - 推理Scaling能大幅提高模型回答困难问题能力,是通往Agentic AI的重要路径 [15] - 预训练受训练数据约束,推理Scaling能提高模型性能,特别是困难问题方面 [15] - 推理模型的Token消耗可能是传统模型的10倍左右 [18] Grok系列模型的发展对应了三条Scaling曲线 - Grok系列模型发展历程对应三条Scaling曲线,Grok 3对应预训练阶段的Scaling law,Grok 4对应后训练与推理过程的Scaling law [19] - Grok 4在HLE测评集上的突破证明了推理Scaling的有效性 [22] 从Deep Research看Agentic对Token量的影响 - Deep Research是“Agentic化”的AI Search,以其为研究Agentic AI的抓手,分析Token量变化并拓展到广泛Agentic AI场景进行量化 [28] - Agentic AI与狭义AI Agent存在差异,前者涉及多流程多工具调用,任务更复杂 [32] Deep Research是研究Agentic AI的重要抓手之一 - AI Search成为Token消耗的重要组成,Google Token量增长可能源于搜索业务 [34] - Deep Research产品是AI Search的Agent路径拓展,被多家厂商竞相推出 [37] Deep Research的Token多在哪?基于底层系统设计视角的分析 - 以Anthropic的Deep Research系统设计为例,其将任务分配给多个Agent,带来成倍Token消耗 [41] - 搜索过程是迭代式的,Token量进一步增加 [44] 从Search到Research,量化Agentic的Token影响 - Anthropic Deep Research的Token消耗达到聊天的15倍 [46] - Google/OpenAI Deep Research的Token消耗量可能接近聊天的50倍 [50] - Agent使用和多工具调用能进一步提升Grok 4在HLE测试中的结果 [55] Deep Research在Agentic AI中并不复杂,真实Token量会更高 - Deep Research任务相对简单,普遍的Agentic AI会有更高Token消耗量,未来Token量增长可能是指数增长 [57][58] Token量的增长会带来算力需求的非线性增长 - 算力需求增长远高于Token量的增长,Token量增长10倍,所需算力量可能增长百倍 [60] 延迟和吞吐量是推理过程中两个重要指标 - 延迟和吞吐量是推理过程的关键指标,相互关联,分别决定用户使用体验和厂商总任务处理量 [61] 为什么延迟和吞吐量互相制约?中间变量——批处理 - 为提升吞吐量需进行批处理,延迟随批量大小线性增长,吞吐量随批量增长先增后缓,两者相互制约 [68] 模型厂商的帕累托最优需要追求“量价”的平衡 - 模型/AI应用厂商需追求用户使用量与AI服务质量之间的平衡,实现收益最大化 [74] 增加硬件是实现模型最优收益边界前移的重要方式 - 增加硬件可减少模型服务延迟,实现模型最优收益边界前移,算力需求增长与Token增长呈倍数关系 [81][82] 总结:两个倍数关系决定未来推理算力需求空间广阔 - 未来算力需求中Token调用量随推理扩展倍数增长,算力需求随Token增长倍数增长,决定推理端未来算力需求广阔 [89] 产业链相关公司 - 海外算力链涉及PCB、铜互联、光模块光器件光芯片相关公司,国内算力链涉及中芯国际、寒武纪等公司 [92]