AI推理
搜索文档
GTC大会前瞻-PCB设备钻针更新-重视LPU带来的增量
2026-03-02 01:23
行业与公司关键要点总结 涉及的行业与公司 * **行业**:人工智能芯片、云计算服务、印刷电路板、PCB设备与耗材[1][2][5][6] * **公司**: * **核心公司**:英伟达、Groq[1][2][3] * **PCB/钻针相关公司**:沃尔德、四方达、鼎泰高科、中国高新、民爆光电、新瑞股份、欧科亿[5][6] * **PCB设备相关公司**:大族数控、英诺激光、凯格精机[2][6] 核心观点与论据 1. LPU的技术特点与市场定位 * LPU专为序列类自然语言处理设计,与更通用的GPU形成差异[1][2] * LPU功耗约为GPU的1/10,推理速度极快[1][2] * LPU通过精密编译器实现数据流动的确定性,提升效率[1][3] * LPU采用SRAM而非HBM,速度快但容量小,单芯片仅230兆[3] * 市场预期AI将从训练主导转向推理主导,LPU的速度优势在推理阶段战略价值凸显[1][3] 2. Groq的发展历程与英伟达的收购逻辑 * Groq自2016年成立至2023年多次濒临破产,因早期AI市场由训练主导,其内存与部署形态限制缺乏应用场景[1][3] * 英伟达于2025年底以200亿美元“收购”Groq,该价格约为Groq当时估值的4倍[1][3] * 收购的核心逻辑是押注AI转向推理主导,LPU的速度优势将更具价值[3] 3. Groq Cloud的部署模式与硬件架构 * Groq通过自建数据中心以API形式提供服务,降低客户直接部署门槛[1][4] * 硬件架构:1个板卡含1个LPU → 1个加速器由8个卡构成 → 1台Groq Server含8个加速器 → 每个计价单元合计72个LPU[1][4] * 以运行700亿参数的LLaMA 2为例,Groq Cloud方案需要576个LPU卡,而英伟达H200方案仅需4~5个GPU,板卡数量差异巨大[1][4] * 选择Groq Cloud的关键在于其推理速度优势,公开测评显示其在“每一兆token的价格”与“计算速度”坐标中位于低价高速区间[4] 4. LPU对PCB产业链的影响路径 * **路径一(“量”的逻辑)**:LPU单独使用。因单芯片内存小,模型部署需大量芯片并行,导致PCB板卡数量可能出现百倍级增长,从而带动PCB面积和数量需求[2][5][6] * **路径二(“价”的逻辑)**:LPU与GPU混合/堆叠封装。市场预期相关GPU可能采用52层、M9Q布基材的高多层PCB,高层数与高端材料提升单板价值与加工难度[2][5] 5. PCB产业链各环节的受益逻辑与关键公司 * **钻针环节(优先级最高)**: * **PCD微钻**:主要受益于混合封装采用高端材料(如M9Q布)带来的“价”的逻辑。沃尔德PCD微钻已能钻1万个孔,属于应用场景变化带来的参数调整[2][5]。重点关注**沃尔德**、**四方达**[5] * **普通硬质合金微钻**:主要受益于Groq Cloud路径下PCB面积与板卡数量增加的“量”的逻辑[2][5]。相关标的包括**鼎泰高科**、**中国高新**、**民爆光电**、**新瑞股份**、**欧科亿**[5][6] * **PCB设备环节**:主要受益于LPU单独使用路径下板卡数量与PCB面积百倍级增长带来的“量”的逻辑[2][6]。重点关注**大族数控**、**英诺激光**、**凯格精机**[2][6] * **液冷方向**:增量需求不明显。因LPU芯片功耗非常低,目前独立运行的LPU芯片均为风冷[2][6] 其他重要内容 * LPU“难用”的核心约束在于片上内存极小(230兆),运行模型需要大量芯片并行,客户曾质疑其部署成本[3] * Groq Cloud已在沙特、欧洲、北美建设数据中心,并已有客户租用,尤其吸引对推理速度敏感的模型公司[4] * 混合封装GPU的相关消息指向其可能具备堆叠式内存,用于减少瓶颈[5]
英伟达的“神秘芯片”背后:推理时代开启“四大算力新趋势”
华尔街见闻· 2026-03-01 21:53
行业趋势:AI算力竞争主战场从训练转向推理 - 英伟达计划发布整合Groq LPU技术的新推理芯片,OpenAI已同意成为其最大客户之一 [1] - OpenAI同时与初创公司Cerebras达成数十亿美元合作,表明AI巨头正从训练算力竞赛转向推理算力的多线布局 [1] - 申万宏源研究认为,2026年算力产业的核心关键词将是推理,Token消耗总量与技术范式将围绕此主题深度重构 [1] 推理算力发展的四大趋势 - 纯CPU部署场景增多,低成本推理需求加速算力下沉 [2] - LPU等专用架构崛起,挑战GPU在推理环节的主导地位 [2] - 国产算力芯片加速突破,供应链多元化趋势明确 [2] - 推理需求结构从“单次训练”向“海量Token消耗”转变,性价比成为核心竞争要素 [2] 推理需求爆发的驱动因素与数据表现 - 大模型货币化加速(如Claude发布行业插件)以及Agent落地提速(如openclaw、千问Agent),驱动推理需求扩张 [3] - 春节期间,国内头部大模型推理量大幅增长:豆包除夕当天推理吞吐量达633亿tokens,元宝月活跃用户达1.14亿,千问“春节大免单”活动参与人数超1.2亿 [3] - OpenRouter数据显示,2月9日至15日当周,中国模型调用量以4.12万亿Token首次超过美国模型的2.94万亿Token;16日至22日当周,中国模型调用量进一步冲高至5.16万亿Token,三周大涨127% [3] 技术架构演进:LPU崛起与芯片分工 - 英伟达斥资200亿美元获取Groq核心技术许可,标志着纯推理芯片的重要性获顶级玩家认可 [6] - LPU针对推理场景的延迟和内存带宽瓶颈优化,效率优势明显;英伟达新品可能涉及下一代Feynman架构或3D堆叠技术整合LPU [6] - 未来AI芯片将形成明确分工:训练端沿用GPU-HBM组合,推理端演进为ASIC+LPU-SRAM+SSD的组合方案 [6] 系统层面革新:三层网络架构 - 应用场景从chatbot转向Agent,推动算力系统架构向三层网络演进 [7] - 第一层快反应层由搭载SRAM的纯推理芯片提供低延迟反馈 [7] - 第二层慢思考层使用超大吞吐算力集群负责复杂逻辑推演,多核多线程CPU需求将显著增加 [7] - 第三层记忆层对应英伟达的ContextMemory System,通过DPU管理的SSD存储长期记忆 [7] - 英伟达与Meta完成首次大规模纯CPU部署,标志着公司正超越单一GPU销售模式 [7] 国产算力芯片的突破 - 新一代国产推理芯片在技术层面实现多项提升:支持FP8/MXFP8/MXFP4等低精度格式,算力达1P和2P;向量算力大幅提升;互联带宽相比前代提升2.5倍至2TB/s [9] - 芯片层面实现PD分离,推出面向Prefill的PR版本(采用低成本HBM)和面向Decode的DT版本,PR版本预计于2026年Q1推出 [9] - 供应链国产化进程加快:某头部封测企业2.5D封装业务收入从2022年的0.5亿元快速增长至2024年的18.2亿元,印证国产算力芯片供给能力提升 [9]
20260301电子行业周报:英伟达拟整合Groq技术加强推理优势,盛合晶微过会-20260301
申万宏源证券· 2026-03-01 20:03
报告行业投资评级 根据报告内容,未明确给出对电子行业的整体投资评级 [3][4] 报告的核心观点 报告的核心观点围绕两大产业事件展开:1) 英伟达整合Groq的LPU技术以强化其在AI推理领域的优势,并可能在未来推出协同硬件架构 [2][4][7][12];2) 国内先进封装龙头企业盛合晶微成功过会,彰显其在国产2.5D封装领域的领先地位和强劲的成长性 [2][4][13] 根据相关目录分别进行总结 一周行情回顾 - **A股电子板块表现强劲**:在2月23日至2月27日期间,申万电子指数上涨4.07%,显著跑赢上证指数(上涨1.98%)、深证综指(上涨3.10%)和创业板指(上涨1.05%)[4][5] - **海外科技指数普遍下跌**:同期,费城半导体指数下跌1.96%,纳斯达克指数下跌0.95%,恒生科技指数下跌1.41%,中国互联网50指数下跌2.09% [4][5][6] - **重点个股涨幅突出**:A股电子板块中,明阳电路涨幅达43.54%,瑞可达上涨30.71%,欧莱新材上涨28.30%,创益通上涨27.28%,泰晶科技上涨24.60% [4][5][6] 英伟达将整合Groq LPU,加强推理优势 - **交易概况**:2025年12月24日,英伟达以约200亿美元的对价获得AI芯片初创公司Groq的技术IP授权,Groq创始人及关键工程团队整体加入英伟达 [4][7] - **技术优势来源**:Groq的LPU采用“软件定义硬件”范式,通过编译器进行静态调度和确定性执行,消除了传统架构的动态调度不确定性 [4][8][9]。其硬件核心是容量230MB、带宽高达80TB/s的片上SRAM,使得大模型推理解码阶段所需的权重与KV Cache几乎可全部在片上访问,极大降低了单Token生成时延 [4][8] - **技术局限性**:LPU的片上SRAM容量较小,而KV Cache占用内存大,因此需要大规模组网 [4][8] - **未来产品路线展望**:英伟达可能在GTC2026上预览Feynman架构及GPU/CPX/LPU协同推理方案。在Rubin平台周期(2026-2027),LPU可能以独立机架形式与GPU、CPX协同部署,LPU负责低延迟解码,GPU负责大容量训练 [4][12]。Feynman架构有望采用台积电A16工艺,通过3D堆叠集成LPU或SRAM单元 [4][12] 国产2.5D封装领军盛合晶微过会 - **市场地位**:盛合晶微是中国大陆2.5D封装收入规模排名第一的企业,2024年市场占有率约为85% [4][13] - **业务范围**:公司提供从12英寸中段硅片加工到晶圆级封装(WLP)、芯粒多芯片集成封装等全流程先进封测服务,重点支持GPU、CPU、AI等高性能芯片 [4][13] - **业绩高速增长**:公司营业收入从2022年的16.33亿元增长至2025年的65.21亿元。扣非后归母净利润从2022年亏损3.49亿元,迅速扭亏为盈,2025年达到8.59亿元 [4][13] - **IPO募资用途**:公司拟募资48亿元,用于三维多芯片集成封装等项目 [13] 投资分析意见 报告建议关注以下投资方向 [4]: - 算力国产化:中芯国际、华虹公司 - AI存储:澜起科技、兆易创新 - 半导体设备零件国产化:北方华创、中微公司、芯源微、茂莱光学、江丰电子
英伟达的“神秘芯片”背后--推理时代开启“四大算力新趋势”
华尔街见闻· 2026-03-01 19:33
行业趋势:AI算力竞争主战场从训练转向推理 - 英伟达计划在GTC开发者大会上发布整合Groq LPU技术的新推理芯片,OpenAI已同意成为该处理器的主要客户之一 [1] - OpenAI同时与初创公司Cerebras达成数十亿美元计算合作,表明AI巨头正从训练算力竞赛转向推理算力的多线布局 [1] - 申万宏源研究认为,2026年算力产业的核心关键词将是推理,Token消耗总量与技术范式将围绕推理主题深度重构 [1] 推理算力需求爆发与驱动力 - 大模型货币化加速及Agent落地提速是推理需求扩张的两大结构性驱动力 [3] - 春节期间国内头部大模型推理量大幅增长:豆包除夕当天推理吞吐量达633亿tokens,元宝月活跃用户达1.14亿,千问“春节大免单”活动参与人数超1.2亿 [3] - 根据OpenRouter数据,2月16日至22日当周,中国模型调用量冲高至5.16万亿Token,三周大涨127%,全球调用量前五的模型中中国占据四席 [3] 推理算力四大发展趋势 - 纯CPU部署场景增多,低成本推理需求加速算力下沉 [2] - LPU等专用架构崛起,挑战GPU在推理环节的主导地位 [2] - 国产算力芯片加速突破,供应链多元化趋势明确 [2] - 推理算力需求结构从“单次训练”向“海量Token消耗”转变,性价比成为核心竞争要素 [2] LPU技术崛起与芯片格局分化 - 英伟达斥资200亿美元获取Groq核心技术许可并吸纳其高管团队,标志着纯推理芯片的重要性获顶级玩家正式认可 [6] - LPU针对推理场景的延迟和内存带宽瓶颈进行专项优化,在解码阶段具备效率优势 [6] - AI芯片未来将形成明确分工:训练端沿用GPU-HBM组合,推理端演进为ASIC+LPU-SRAM+SSD的组合方案 [7] 推理系统架构革新 - 应用场景从chatbot转向Agent,推动算力系统架构向三层网络演进:快反应层、慢思考层、记忆层 [8] - 慢思考层对多核多线程CPU的需求将显著增加 [8] - 英伟达宣布扩大与Meta Platforms合作,完成首次大规模纯CPU部署以支持广告定向AI智能体,标志着公司正超越单一GPU销售模式 [8] 国产算力芯片技术突破 - 新一代国产推理芯片实现多项根本性提升:新增支持低精度数据格式,算力分别达到1P和2P;向量算力大幅提升;互联带宽相比前代提升2.5倍至2TB/s [10] - 芯片层面实现了PD分离,其中面向Prefill的PR版本采用低成本HBM,可大幅降低推理Prefill阶段的投资成本,预计于2026年Q1推出 [10] - 供应链国产化进程加快,某头部封测企业2.5D封装业务收入从2022年的0.5亿元快速增长至2024年的18.2亿元,印证国产算力芯片供给能力提升 [10]
电子行业周报:英伟达拟整合Groq技术加强推理优势,盛合晶微过会-20260301
申万宏源证券· 2026-03-01 19:26
报告行业投资评级 - 行业评级为“看好” [3] 报告核心观点 - 英伟达通过整合Groq的LPU技术以加强其在AI推理领域的优势,这代表了算力架构的重要演进方向 [4][8] - 国产先进封装领军企业盛合晶微成功过会,突显了国内在半导体先进制造环节的突破与成长潜力 [4][14] - 报告基于上述产业动态,给出了具体的投资分析意见,聚焦于算力国产化、AI存储及半导体设备零件等方向 [4] 一周板块行情回顾 - 2026年2月23日至27日,A股电子板块表现强势,申万电子指数上涨4.07%,跑赢主要市场指数(上证指数涨1.98%,深证综指涨3.10%,创业板指涨1.05%)[4][5] - 同期海外科技与半导体市场表现疲软,费城半导体指数下跌1.96%,纳斯达克指数下跌0.95%,恒生科技指数下跌1.41% [4][5] - 当周A股电子板块涨幅居前的个股包括:明阳电路(涨43.54%)、瑞可达(涨30.71%)、欧莱新材(涨28.30%)、创益通(涨27.28%)、泰晶科技(涨24.60%)[4][5] 英伟达整合Groq LPU技术分析 - **交易概述**:2025年12月24日,英伟达以约200亿美元的对价获得AI芯片初创公司Groq的技术IP授权,其创始人及关键工程团队整体加入英伟达 [4][8] - **技术优势**:Groq的LPU采用“提前编译+确定性执行+SRAM高速缓存”架构,依赖容量为230MB、带宽高达80TB/s的片上SRAM,通过消除动态调度和外部显存访问延迟,实现了极低且确定性的推理时延 [4][9] - **技术局限与整合路径**:LPU的片上SRAM容量较小,处理大模型所需的KV Cache时需大规模组网。报告预计,在Rubin平台周期(2026-2027年),LPU可能以独立机架形式与GPU、CPU协同部署,分别负责低延迟解码和大规模训练/预填充任务 [4][13] - **未来产品展望**:英伟达可能在GTC 2026上更新产品路线图,预览Feynman架构。该架构有望采用台积电A16工艺,并通过SoIC混合键合技术,将LPU或SRAM单元作为独立裸片3D堆叠在计算核心之上 [4][13] 盛合晶微IPO分析 - **公司定位**:盛合晶微是中国大陆领先的集成电路晶圆级先进封测企业,专注于12英寸中段硅片加工、晶圆级封装及芯粒多芯片集成封装等服务,主要支持GPU、CPU、AI等高性能芯片 [4][14] - **市场地位**:根据灼识咨询统计,2024年公司是中国大陆2.5D封装收入规模排名第一的企业,市场份额约为85% [4][14] - **财务表现**:公司营收从2022年的16.33亿元快速增长至2025年的65.21亿元;扣非后归母净利润在同期由亏损3.49亿元转为盈利8.59亿元,呈现强劲的盈利改善趋势 [4][14] - **募资用途**:此次IPO拟募集资金48亿元,主要用于三维多芯片集成封装等先进封装项目 [14] 投资分析意见 - **算力国产化**:建议关注中芯国际、华虹公司 [4] - **AI存储**:建议关注澜起科技、兆易创新 [4] - **半导体设备零件国产化**:建议关注北方华创、中微公司、芯源微、茂莱光学、江丰电子 [4] 重点公司估值参考 - 报告列出了部分电子行业重点公司的估值数据,例如:北方华创(002371.SZ)2026年2月28日收盘价471.88元,对应2026年预测市盈率(PE)为36.3倍;中芯国际(688981.SH)收盘价115.00元,对应2026年预测PE为147.9倍 [16][18][19]
周观点:关注LPU:AI推理的下半场投资机遇-20260301
国盛证券· 2026-03-01 16:49
报告行业投资评级 - 报告未明确给出整体行业评级,但对重点标的均给予“买入”评级 [8] 报告核心观点 - 报告核心观点是关注AI推理阶段的下半场投资机遇,特别是由新型处理器架构(如LPU)和存储解决方案(如HBF)驱动的硬件需求增长,并认为英伟达超预期的业绩指引进一步印证了AI硬件板块的投资价值 [1][2][3] 根据目录总结 一、LPU:关注AI推理的下半场投资机遇 - **LPU架构创新**:英伟达斥资200亿美金获取AI芯片初创公司Groq的技术非独家许可并吸纳其核心团队,Groq独创的LPU(语言处理单元)采用软件定义硬件的可重构数据流架构,消除了内存带宽瓶颈,其运行大型语言模型的速度显著更快,能源效率比GPU高出多达10倍 [1][11][12] - **SRAM需求提升**:LPU集成了数百兆片上SRAM作为主权重存储器,大幅降低数据访问延迟,其片上带宽高达80TB/s,访问延迟仅为HBM的几分之一,LPU的应用有望带动SRAM的需求提升 [1][15] - **背面供电技术(BPDN)与嵌埋PCB**:背面供电网络直接从晶圆下方向前沿晶体管供电,能提升性能、降低功率损耗并提高电源效率,嵌埋PCB技术将元件嵌入PCB内部,可使PCB面积减少50%,并提供更稳定、可预测的电气环境,AI将带动嵌埋PCB需求,同时LPU PCB层数有望显著提升 [1][16][19][25][31] 二、英伟达指引超预期,重视AI硬件板块投资机会 - **业绩表现强劲**:英伟达FY26Q4营收达681亿美元,同比增长73%,其中数据中心业务营收623亿美元,同比增长75%,环比增长22%,GAAP毛利率为75% [2][35] - **Blackwell架构放量**:Grace Blackwell系统约占FY26Q4数据中心营收的三分之二,主要客户已合计部署并消耗接近9吉瓦的Blackwell基础设施,GB300及NVL72系统相较前代架构实现了最高约50倍的每瓦性能提升,并将每Token成本降低35倍 [2][36] - **未来指引乐观**:公司指引FY27Q1营收将达到780亿美元(上下浮动2%),并预计全年GAAP和非GAAP毛利率分别为74.9%和75%(上下浮动50个基点) [2][38][39] - **AI应用深化与主权AI增长**:AI部署已超越聊天机器人,广泛渗透至搜索、广告等传统工作负载,主权AI在FY26财年收入超过300亿美元,同比增长两倍以上 [39][40] 三、高速HBF标准发布,产业化进程逐步推进 - **解决内存瓶颈**:高带宽闪存(HBF)旨在解决AI推理的内存瓶颈问题,其理念是将NAND闪存像HBM一样堆叠,从而在提供HBM级别带宽的同时,实现16倍的容量提升 [3][41][42] - **标准化进程启动**:SK海力士和闪迪正在联合开发HBF技术,目标是在2026年底推出样品,双方已启动HBF规范标准化联盟,旨在将HBF打造为行业标准 [3][43] - **混合架构方案**:SK海力士提出的H³混合架构(HBM+HBF),采用HBM保障最大化带宽,HBF提供大容量存储,并通过片上SRAM缓冲区抵消NAND的访问延迟 [42] 四、相关标的 - **PCB**:胜宏科技、沪电股份、世运电路等 [51] - **国产算力**:芯原股份、海光信息、寒武纪等 [51] - **存储模组**:香农芯创、国科微、江波龙等 [51] - **存储芯片**:兆易创新、澜起科技、东芯股份等 [51] - **半导体设备**:中微公司、北方华创、拓荆科技等 [51] - **半导体材料**:雅克科技、鼎龙股份、彤程新材等 [51] - **封测**:长电科技、通富微电、汇成股份等 [51]
电子周观点:关注LPU——AI推理的下半场投资机遇
国盛证券· 2026-03-01 16:24
行业投资评级 - 报告对电子行业及相关AI硬件板块持积极看法,并列出多家重点公司给予“买入”评级 [8] 核心观点 - 报告核心观点是聚焦AI推理阶段的下半场投资机遇,重点关注由新型LPU(语言处理单元)架构创新、英伟达强劲业绩指引以及高速HBF(高带宽闪存)标准化推进所驱动的产业链机会 [1][2][3] 分章节总结 一、LPU:关注AI推理的下半场投资机遇 - **LPU架构创新驱动AI推理新机遇**:英伟达斥资200亿美金获取Groq公司LPU技术非独家许可并吸纳其核心团队[1][11] LPU采用软件定义硬件的可重构数据流架构,消除了内存带宽瓶颈,运行大型语言模型的速度显著更快,在能源效率上比GPU高出多达10倍[1][12] LPU集成了数百兆片上SRAM作为主权重存储器,访问延迟仅为HBM的几分之一,片上带宽高达80TB/s,有望带动SRAM需求提升[1][15] - **背面供电技术带动嵌埋PCB需求**:背面供电网络(BPDN)架构能提升处理器性能、大幅降低功率损耗并提高电源效率[1][16] 嵌埋PCB技术将元件嵌入板内,可使PCB面积减少50%,并提升嵌入式存储器的单元密度5%到10%[19] 该技术还能优化电气性能,例如在新型雷达研发中实现40μm线宽/线距设计,提升高频信号稳定性[25] 结合背面供电技术,可减少40%以上的掩模数量和工艺步骤,显著降低高端芯片制造成本[31] AI发展将带动嵌埋PCB需求,且LPU PCB层数有望显著提升[1] 二、英伟达指引超预期,重视AI硬件板块投资机会 - **英伟达FY26Q4业绩强劲**:公司FY26Q4营收达681亿美元,同比增长73%,其中数据中心业务营收623亿美元,同比增长75%,环比增长22%[2][35] GAAP毛利率为75%,非GAAP毛利率为75.2%[2][35] 公司指引FY27Q1营收将达到780亿美元(上下浮动2%),全年GAAP和非GAAP毛利率预计分别为74.9%和75%(上下浮动50个基点)[2] - **Blackwell架构全面放量**:Grace Blackwell系统约占FY26Q4数据中心营收的三分之二,主要客户已合计部署并消耗接近9吉瓦的Blackwell基础设施[2][36] GB300及NVL72系统相较前代架构实现了最高约50倍的每瓦性能提升,并将每Token成本降低35倍[36] - **AI应用走向大规模推理与主权AI成为新增长点**:AI部署已广泛渗透至搜索、广告等传统工作负载,例如Meta的生成式模型推动Facebook广告点击率提升3.5%[39] 主权AI成为新的战略增长方向,FY26财年相关收入超过300亿美元,同比增长两倍以上[40] 三、高速HBF标准发布,产业化进程逐步推进 - **HBF旨在解决AI内存瓶颈**:高带宽闪存(HBF)的理念是将NAND闪存像HBM一样堆叠,在提供HBM级别带宽的同时,实现16倍的容量提升[3][42] SK海力士和闪迪正在联合开发此项技术,目标是在2026年底推出样品[3][42] - **HBF标准化战略启动**:SK海力士与闪迪宣布了HBF的全球标准化战略,并在开放计算项目(OCP)下设立专门工作组启动标准化工作,旨在为整个AI生态系统共同成长奠定基础[3][43] 四、相关投资标的 - 报告列出了多个细分领域的相关公司,包括PCB(如胜宏科技、东山精密)、国产算力(如芯原股份、海光信息)、存储(如香农芯创、兆易创新)、半导体设备(如中微公司、北方华创)及材料封测等环节的厂商[8][51]
英伟达在下月GTC大会推出“新推理芯片”,融入Groq LPU设计
华尔街见闻· 2026-02-28 12:47
文章核心观点 英伟达计划在下月GTC开发者大会上发布一款整合了Groq LPU技术的全新推理芯片,标志着公司正加速向推理计算领域转型,以应对市场对高效能、低成本AI计算方案的需求,并试图在日益激烈的竞争中巩固其市场地位 [1][2][3][7][24] 新产品发布与技术整合 - 英伟达计划在下个月的GTC开发者大会上发布一款全新的、专为加速AI模型查询响应而设计的推理芯片系统,其首席执行官黄仁勋称之为“世界从未见过”的系统 [1][2] - 新产品整合了Groq公司的“语言处理单元”(LPU)技术,旨在解决大模型推理,尤其是解码阶段的瓶颈,以降低能耗与成本 [8][10][11][13][14] - 为获得LPU技术,英伟达在去年底斥资200亿美元获得了Groq的关键技术许可,并吸纳了包括其创始人在内的高管团队 [12] - 即将发布的新品可能涉及下一代Feynman架构,该架构可能采用更广泛的SRAM集成或3D堆叠技术,以优化延迟和内存带宽 [14] 市场影响与客户动态 - 新产品的推出预计将重塑AI算力市场格局,直接影响寻求成本效益替代方案的云服务提供商和企业级投资者 [3] - ChatGPT开发商OpenAI已同意成为该新处理器的最大客户之一,并将向英伟达购买大规模的“专用推理产能”,这稳固了英伟达的核心客户盘 [4] - OpenAI的行动也向市场发出明确信号:支持AI智能体的底层基础设施正从大规模预训练转向高效推理 [5] - 除了OpenAI,英伟达也与Meta Platforms扩大了合作,进行了首次大规模的纯CPU部署,以支持Meta的广告定向AI智能体 [18][19] 公司战略转型与竞争态势 - 英伟达正在突破对传统图形处理器(GPU)的单一依赖,通过引入LPU新架构以及探索纯中央处理器(CPU)的部署模式,提供多元化的硬件组合 [6][7][15][19] - 公司以往将Vera CPU与Rubin GPU捆绑销售,但部分客户发现对于特定AI任务,纯CPU环境更为高效,促使公司调整策略 [16][17] - 市场需求正从训练转向推理,许多公司发现传统GPU成本昂贵且并非运行模型的最佳选择,这推动了底层硬件设计的演进 [20] - 英伟达面临来自谷歌、亚马逊等云服务商自研芯片,以及如Cerebras等初创公司的激烈竞争,例如OpenAI也与Cerebras达成了价值数十亿美元的计算合作,并签署了使用亚马逊Trainium芯片的协议 [20][21][22] - 面对竞争,英伟达正从单纯的芯片供应商向涵盖半导体、数据中心、云和应用的完整AI生态系统构建者转型 [23] - 下个月的GTC大会被视为检验英伟达能否在推理时代延续其90%市场份额神话的关键节点 [24]
报道:英伟达在下月GTC大会推出“新推理芯片”,融入Groq LPU设计
华尔街见闻· 2026-02-28 11:45
文章核心观点 - 英伟达计划在下月GTC开发者大会上发布一款整合了Groq LPU技术的全新推理芯片,标志着公司正加速向推理计算领域转型,以应对市场对高效能、低成本计算方案的需求,并试图在AI产业下一阶段巩固其市场地位 [1][5] 产品与技术发布 - 英伟达计划在GTC大会上发布一款被其首席执行官称为“世界从未见过”的全新系统,专为加速AI模型的查询响应而设计 [1] - 新产品整合了Groq的“语言处理单元”(LPU)技术,该技术采用了与传统GPU截然不同的架构,在处理推理功能时表现出极高的效率 [1][2] - 即将发布的新品可能涉及具备颠覆性的下一代Feynman架构,该架构可能采用更广泛的SRAM集成方案,甚至通过3D堆叠技术将LPU深度整合,专门针对延迟和内存带宽进行优化 [2] 战略转型与市场布局 - 英伟达正在突破对传统图形处理器(GPU)的单一依赖,通过引入LPU新架构以及探索纯中央处理器(CPU)的部署模式来巩固市场地位 [1] - 公司正从单纯的芯片供应商向涵盖半导体、数据中心、云和应用的完整AI生态系统构建者转型 [5] - 公司本月宣布扩大与Meta Platforms的合作,进行了首次大规模的纯CPU部署,以支持Meta的广告定向AI智能体,这表明公司正超越单一的GPU销售模式 [3] 客户与市场需求 - ChatGPT开发商OpenAI已同意成为该新处理器的最大客户之一,并宣布将向英伟达购买大规模的“专用推理产能” [1] - 底层硬件设计的演进直接源于科技行业对AI代理应用需求的爆发,许多公司发现传统的GPU成本昂贵且在实际运行模型时并非最佳选择 [4] - OpenAI除了采购英伟达新系统,上个月还与初创公司Cerebras达成了一项价值数十亿美元的计算合作,并签署了使用亚马逊Trainium芯片的重大协议 [4] 行业竞争态势 - 英伟达面临谷歌、亚马逊以及众多初创公司的激烈竞争 [1] - 主要云服务商在加紧自研芯片,例如Anthropic Claude Code主要依赖亚马逊AWS和Alphabet旗下谷歌云设计的芯片,而非英伟达的产品 [5] - Cerebras首席执行官称,其专注于推理的芯片在速度上超越了英伟达的GPU [4] 技术整合与收购 - 英伟达去年底斥资200亿美元获得了初创公司Groq的关键技术许可,并在一场大规模的“核心聘用”交易中吸纳了包括创始人Jonathan Ross在内的高管团队 [2]
江波龙(301308) - 2026年2月25日投资者关系活动记录表
2026-02-27 17:40
主控芯片与技术能力 - 公司已推出应用于UFS、eMMC、SD卡、高端USB等领域的多款主控芯片,采用领先的头部Foundry工艺和自研核心IP与固件算法,产品具有性能和功耗优势 [3] - 在旗舰存储产品上,全球仅有少数企业具备芯片层面开发UFS4.1产品的能力,公司搭载自研主控的UFS4.1产品在制程、读写速度及稳定性上优于市场可比产品 [3] - 截至2025年三季度末,公司自研的多款主控芯片累计部署量已突破1亿颗,并与多家晶圆原厂及头部智能终端设备厂商构建了深度合作关系,相关UFS4.1产品正在批量出货前夕 [3] 创新产品与市场进展 - mSSD产品通过Wafer级系统级封装实现轻薄紧凑,在满足低功耗要求、降低空间占用的同时,保持与传统SSD相当的性能,并具备更优的物理特性和综合成本优势 [3] - 公司围绕mSSD已构建丰富的知识产权布局,并基于自主封测实力实现技术商业化落地,该产品正在多家头部PC厂商加快导入 [3] - 公司已发布MRDIMM、CXL2.0内存拓展模块、SOCAMM2等多款前沿高性能存储产品,并将根据市场需求进行产品布局和技术创新 [4] 行业周期与市场展望 - AI推理在系统架构与资源调度上的结构性变化,特别是键值缓存与检索增强生成技术的应用,显著扩大了对存储容量的需求 [4] - AI基础设施快速扩张与HDD供应短缺,共同推动存储需求爆发式增长 [4] - 受制于产能建设周期的滞后性,存储原厂资本开支回升对短期位元产出的增量贡献也将较为有限 [4]