Workflow
LPU 核心 AI 推理系统
icon
搜索文档
计算机事件点评:英伟达 GTC 前瞻:或将推出 LPU 核心 AI 推理系统
国海证券· 2026-03-08 23:10
报告行业投资评级 - 行业评级:推荐(维持)[1] 报告核心观点 - 英伟达计划在2026年GTC大会上推出基于LPU架构的全新AI推理芯片系统,标志着AI算力需求正从训练侧向推理侧加速转移,这将为国产AI芯片及硬件产业链带来确定性的发展机遇[4][5][8] 事件与核心产品分析 - **事件**:2026年3月5日,CIME国际液冷散热技术公众号指出,英伟达计划于3月16日开幕的GTC大会上推出一款全新AI推理芯片系统,核心芯片预计融合其收购的Groq的LPU架构技术[4] - **GTC大会核心议程**:预计涵盖新一代AI加速芯片(如Vera Rubin平台及首发台积电1.6纳米制程的Feynman芯片)、Agent系统、CUDA架构、高性能推理、物理AI及量子计算等关键领域[5] - **LPU推理系统细节**:系统为整机架级推理方案,单机架可能搭载256个LPU单元,分布于32个服务器托盘上,每个托盘配置8颗LPU芯片,整体面向规模化、低延迟推理场景[5] 技术架构与优势 - **推理瓶颈**:在基于GPU的推理架构中,模型参数存放于HBM,计算核心与HBM间频繁的数据搬运影响了decode阶段的时效性,而decode时延是决定用户推理体验的关键[6] - **LPU技术优势**:Groq LPU专为推理加速设计,采用离计算核心更近的SRAM存储模型参数,其230MB片上SRAM可提供高达80TB/s的内存带宽,数据处理速度远超GPU架构[6] - **分布式策略**:Groq采用分布式推理策略,建立千卡互联集群,每张卡仅存储并计算模型的一小部分,最后聚合输出,从而更好地适配低延迟推理场景[6][7] 行业趋势与市场机遇 - **算力需求结构转移**:随着Agent应用爆发,全球算力需求重心正从训练转向推理。据彭博社,2025年训练成本占大型云计算公司数据中心支出的40%以上,但到2032年,这一比例将降至14%左右[8] - **服务器市场结构变化**:IDC指出,到2028年,中国非GPU服务器的市场规模占比将逼近50%,结构转型趋势明确[8] - **海外订单印证趋势**:海外模型厂商正达成大规模推理芯片订单,如OpenAI与Cerebras签署数十亿美元订单,Anthropic、Meta分别与谷歌签订210亿美元、数十亿美元的TPU合作协议,Meta与AMD也达成大规模推理芯片合作[8] - **国产化机遇**:国产模型(如DeepSeek V4)正加速转向本土算力方案(如昇腾、寒武纪平台),国内推理基础设施市场建设或已进入加速期,国内AI芯片厂商有望迎来广阔增长机遇[8] 投资策略与重点关注领域 - **投资逻辑**:随着大模型加速进化、Agent应用大规模普及,推理端市场需求有望进一步释放,维持对计算机行业“推荐”评级[8] - **重点关注个股**: - **AI芯片**:海光信息、寒武纪、芯原股份、沐曦股份、摩尔线程、壁仞科技、天数智芯[8] - **CPU**:海光信息、龙芯中科、中国长城(飞腾信息)[8] - **连接**:澜起科技、盛科通信、锐捷网络、华工科技、华丰科技[8] - **服务器**:中科曙光、浪潮信息、华勤技术、紫光股份、工业富联、软通动力、神州数码、中兴通讯、中国长城[8] - **液冷**:曙光数创、英维克、飞荣达、鼎通科技、高澜股份等[8]