行业趋势:AI算力竞争主战场从训练转向推理 - 英伟达计划在GTC开发者大会上发布整合Groq LPU技术的新推理芯片,OpenAI已同意成为该处理器的主要客户之一 [1] - OpenAI同时与初创公司Cerebras达成数十亿美元计算合作,表明AI巨头正从训练算力竞赛转向推理算力的多线布局 [1] - 申万宏源研究认为,2026年算力产业的核心关键词将是推理,Token消耗总量与技术范式将围绕推理主题深度重构 [1] 推理算力需求爆发与驱动力 - 大模型货币化加速及Agent落地提速是推理需求扩张的两大结构性驱动力 [3] - 春节期间国内头部大模型推理量大幅增长:豆包除夕当天推理吞吐量达633亿tokens,元宝月活跃用户达1.14亿,千问“春节大免单”活动参与人数超1.2亿 [3] - 根据OpenRouter数据,2月16日至22日当周,中国模型调用量冲高至5.16万亿Token,三周大涨127%,全球调用量前五的模型中中国占据四席 [3] 推理算力四大发展趋势 - 纯CPU部署场景增多,低成本推理需求加速算力下沉 [2] - LPU等专用架构崛起,挑战GPU在推理环节的主导地位 [2] - 国产算力芯片加速突破,供应链多元化趋势明确 [2] - 推理算力需求结构从“单次训练”向“海量Token消耗”转变,性价比成为核心竞争要素 [2] LPU技术崛起与芯片格局分化 - 英伟达斥资200亿美元获取Groq核心技术许可并吸纳其高管团队,标志着纯推理芯片的重要性获顶级玩家正式认可 [6] - LPU针对推理场景的延迟和内存带宽瓶颈进行专项优化,在解码阶段具备效率优势 [6] - AI芯片未来将形成明确分工:训练端沿用GPU-HBM组合,推理端演进为ASIC+LPU-SRAM+SSD的组合方案 [7] 推理系统架构革新 - 应用场景从chatbot转向Agent,推动算力系统架构向三层网络演进:快反应层、慢思考层、记忆层 [8] - 慢思考层对多核多线程CPU的需求将显著增加 [8] - 英伟达宣布扩大与Meta Platforms合作,完成首次大规模纯CPU部署以支持广告定向AI智能体,标志着公司正超越单一GPU销售模式 [8] 国产算力芯片技术突破 - 新一代国产推理芯片实现多项根本性提升:新增支持低精度数据格式,算力分别达到1P和2P;向量算力大幅提升;互联带宽相比前代提升2.5倍至2TB/s [10] - 芯片层面实现了PD分离,其中面向Prefill的PR版本采用低成本HBM,可大幅降低推理Prefill阶段的投资成本,预计于2026年Q1推出 [10] - 供应链国产化进程加快,某头部封测企业2.5D封装业务收入从2022年的0.5亿元快速增长至2024年的18.2亿元,印证国产算力芯片供给能力提升 [10]
英伟达的“神秘芯片”背后--推理时代开启“四大算力新趋势”