报告行业投资评级 - 行业评级:推荐(维持)[1] 报告核心观点 - 英伟达计划在2026年GTC大会上推出基于LPU架构的全新AI推理芯片系统,标志着AI算力需求正从训练侧向推理侧加速转移,这将为国产AI芯片及硬件产业链带来确定性的发展机遇[4][5][8] 事件与核心产品分析 - 事件:2026年3月5日,CIME国际液冷散热技术公众号指出,英伟达计划于3月16日开幕的GTC大会上推出一款全新AI推理芯片系统,核心芯片预计融合其收购的Groq的LPU架构技术[4] - GTC大会核心议程:预计涵盖新一代AI加速芯片(如Vera Rubin平台及首发台积电1.6纳米制程的Feynman芯片)、Agent系统、CUDA架构、高性能推理、物理AI及量子计算等关键领域[5] - LPU推理系统细节:系统为整机架级推理方案,单机架可能搭载256个LPU单元,分布于32个服务器托盘上,每个托盘配置8颗LPU芯片,整体面向规模化、低延迟推理场景[5] 技术架构与优势 - 推理瓶颈:在基于GPU的推理架构中,模型参数存放于HBM,计算核心与HBM间频繁的数据搬运影响了decode阶段的时效性,而decode时延是决定用户推理体验的关键[6] - LPU技术优势:Groq LPU专为推理加速设计,采用离计算核心更近的SRAM存储模型参数,其230MB片上SRAM可提供高达80TB/s的内存带宽,数据处理速度远超GPU架构[6] - 分布式策略:Groq采用分布式推理策略,建立千卡互联集群,每张卡仅存储并计算模型的一小部分,最后聚合输出,从而更好地适配低延迟推理场景[6][7] 行业趋势与市场机遇 - 算力需求结构转移:随着Agent应用爆发,全球算力需求重心正从训练转向推理。据彭博社,2025年训练成本占大型云计算公司数据中心支出的40%以上,但到2032年,这一比例将降至14%左右[8] - 服务器市场结构变化:IDC指出,到2028年,中国非GPU服务器的市场规模占比将逼近50%,结构转型趋势明确[8] - 海外订单印证趋势:海外模型厂商正达成大规模推理芯片订单,如OpenAI与Cerebras签署数十亿美元订单,Anthropic、Meta分别与谷歌签订210亿美元、数十亿美元的TPU合作协议,Meta与AMD也达成大规模推理芯片合作[8] - 国产化机遇:国产模型(如DeepSeek V4)正加速转向本土算力方案(如昇腾、寒武纪平台),国内推理基础设施市场建设或已进入加速期,国内AI芯片厂商有望迎来广阔增长机遇[8] 投资策略与重点关注领域 - 投资逻辑:随着大模型加速进化、Agent应用大规模普及,推理端市场需求有望进一步释放,维持对计算机行业“推荐”评级[8] - 重点关注个股: - AI芯片:海光信息、寒武纪、芯原股份、沐曦股份、摩尔线程、壁仞科技、天数智芯[8] - CPU:海光信息、龙芯中科、中国长城(飞腾信息)[8] - 连接:澜起科技、盛科通信、锐捷网络、华工科技、华丰科技[8] - 服务器:中科曙光、浪潮信息、华勤技术、紫光股份、工业富联、软通动力、神州数码、中兴通讯、中国长城[8] - 液冷:曙光数创、英维克、飞荣达、鼎通科技、高澜股份等[8]
计算机事件点评:英伟达 GTC 前瞻:或将推出 LPU 核心 AI 推理系统