Workflow
SRAM
icon
搜索文档
美光:未来汽车将需要300GB的内存
芯世相· 2026-03-23 14:34
文章核心观点 - 随着汽车向高级别自动驾驶(L4/L5)和软件定义架构演进,车载内存和存储子系统正面临带宽、容量、延迟和功耗方面的前所未有的高要求,这正在颠覆汽车处理与内存的选择,并催生新的市场机遇 [3][5][10][20] 汽车智能化对内存的需求激增 - 美光CEO预测,具备L4级自动驾驶能力的汽车最终将需要超过300GB的RAM [3] - 辅助驾驶和自动驾驶传感器数据激增,以及实时决策需求,对车载内存和存储子系统提出前所未有的高要求 [5] - 车辆功能电子化与智能化水平提升,使得汽车领域面临的挑战(如数据高速传输以保障关键功能)与大型数据中心相呼应 [6] 汽车架构向集中化与软件定义转型 - 行业正从分布式电子控制单元转向更集中式的架构,目标是将大量传感器数据整合到单颗SoC中处理 [10] - 软件定义汽车方法使得不同子系统能像SoC模块一样被设计融合,便于规划带宽、内存容量和类型以及数据优先级 [10] - 中国OEM厂商通过使用大量SoC实现纳秒甚至皮秒级延迟处理多摄像头数据,而竞争对手使用独立ECU仅有几兆比特的通信通道 [8] 内存技术选择与演进 - LPDDR内存因高带宽和低功耗在汽车领域受青睐,LPDDR6带宽已达14.4Gb/s,并在容量与带宽间提供平衡,满足ADAS和AI推理需求 [12][13] - 高级别自动驾驶(L4/L5)需要在片上内存容量/带宽与芯片面积、功耗、热管理及可靠性之间取得平衡 [13] - 尽管高带宽内存目前因可靠性问题尚无法用于汽车,但对高性能内存的需求增长已使其进入厂商视野 [13] - 不同类型内存有明确分工:DRAM用于计算,NAND用于数据,NOR用于代码 [17] - 除DRAM外,SRAM用于高性能实时计算,MRAM和RRAM适合高密度、低功耗持久化存储,闪存则广泛用于固件、日志等长期存储 [18] 内存市场现状与供应链 - 存储行业高度集中,由少数领先厂商垄断,产能需与其他行业共享,OEM理解存储行业动态至关重要 [14] - 近期DDR4内存价格大幅飙升,原因包括AI需求、产能转移或分销渠道投机行为 [14] - 根据Yole Group,汽车应用中内存类型及用途包括:DRAM用于ADAS域控制器、中央计算等;NAND闪存;eMMC/UFS用于信息娱乐等;NVMe SSD用于L3+自动驾驶计算;SLC NAND用于车联网;NOR闪存用于启动及安全代码 [14][19] 数据处理与存储架构趋势 - 未来架构将采用更多混合内存层级,在单个模块或封装中整合传统DRAM和闪存以获得更大灵活性 [20] - 部分数据(如用于AI训练的行车记录片段)会在车内本地预处理和存储数小时甚至一天,再上传至云端 [18][19] - 车内本地推理相比云端处理能提供更低延迟,确保实时处理及关键任务时序 [20] 行业增长与产能扩张 - 美光2026年第二季度营收达238.6亿美元,较上年同期的80.3亿美元大幅增长200%,增长主要由AI云厂商对高端HBM芯片的强劲需求推动 [3] - 美光计划在日本、新加坡及纽约建设晶圆厂,预计2028至2029年间投产,并计划在2026年将产能提升20%以缓解供应压力 [3]
美光:DDR5利润率现已超过HBM
半导体芯闻· 2026-03-20 18:08
文章核心观点 - 美光科技在第二财季财报电话会议中披露,传统DRAM(包括DDR5)的利润率已超过高带宽内存(HBM)[1] - 这一利润率动态变化主要由两个关键因素驱动:HBM受长期协议价格锁定,而传统DRAM受益于现货市场价格飙升和供应紧张 [1][2] - 尽管传统DRAM短期盈利占优,但公司采取平衡的产品组合策略,以满足人工智能服务器等客户对HBM和传统DRAM的系统性需求,旨在实现数据中心业务的全面增长 [2][3] 行业与市场动态 - HBM需求自去年以来激增,主要受英伟达和AMD等公司推出的AI加速器推动 [1] - 传统DRAM市场受益于强劲的数据中心服务器和消费电子设备需求,以及因HBM生产占用更多晶圆产能而导致的供应受限 [2] - DRAM现货价格近期飙升,平均售价上涨超过60%,使得传统DRAM利润率能够实时反映价格上涨 [2] 公司战略与产品组合 - HBM供应受长期战略客户协议(SCA)制约,价格通常在年初前确定,例如2026年出货量的很大一部分已在去年年底定价,这限制了公司从快速上涨的价格中立即获利的能力 [2] - 公司不采取纯粹以利润为导向的产品分配,而是推行平衡战略,以满足客户的全部系统需求,特别是在人工智能服务器领域 [2] - 现代AI服务器部署需要HBM和DDR5 DRAM的组合,大规模系统出货需要“自然平衡”,两者必须作为完整解决方案的一部分一起供应 [3] - 公司的数据中心产品组合旨在实现全面增长,包括HBM、DDR5、低功耗DRAM、小外形双列直插式内存模块和固态硬盘 [3] - 公司的长期战略是保持跨多个行业的多元化供应商地位,这被视为公司业绩和整个行业增长的关键驱动力 [3]
GSI Technology Stock: Another Member Of The APU Family In The Plans (NASDAQ:GSIT)
Seeking Alpha· 2026-03-18 14:17
公司业务与产品 - GSI Technology公司拥有尚可的静态随机存取存储器销售业务 这些销售持续支持其关联处理单元的业务选项 [2] - 公司最新产品部件似乎被命名为Plato 该产品预计将成为独立于Valkyrie的产品 [2] 投资策略与平台 - The Value Lab投资平台专注于多头价值投资理念 寻找国际市场上被错误定价的股票 目标投资组合收益率约为4% [1] - 该平台由Valkyrie Trading Society分析师团队领导 该团队分享高确信度且冷门的发达市场投资观点 这些观点下行风险有限 并可能在当前经济环境下产生非相关性和超常回报 [2] - 平台为会员提供实时更新的投资组合 24/7问答聊天 定期全球市场新闻报告 会员个股观点反馈 每月新交易建议 季度财报解读以及每日宏观观点 [2]
英伟达出手,SRAM重回C位
36氪· 2026-03-17 19:08
文章核心观点 - AI计算需求正从训练转向推理,用户体验标准从模型大小转向响应速度,这驱动了存储架构的范式转移,曾经因成本高而被边缘化的片上SRAM技术因其极低的访问延迟和确定性的高带宽,正在AI推理领域强势回归,并可能重塑AI芯片与存储市场的格局 [1][4][15] AI推理需求的结构性变化 - 德勤预测到2026年,“推理”将占据全部AI计算能力的三分之二,标志着AI工作负载的历史性转折 [4] - 用户体验的衡量标尺从“模型有多大”转向“回答有多快”,核心指标变为首次响应时间(Time-to-First-Token)和生成流畅度(尾时延) [4] - 在推理的逐字生成(decode)阶段,瓶颈已从算力转向内存带宽,传统GPU需要频繁从片外HBM搬运权重,造成巨大延迟和能耗浪费 [5] SRAM架构的技术优势与性能表现 - SRAM集成在计算核心附近,可显著降低权重与激活数据的访存延迟与抖动,从而改善推理的响应时间表现 [6] - Groq最新发布的Groq 3 LPU单芯片集成500MB片上SRAM,存储带宽高达150TB/s,是主流GPU片外HBM4带宽(约22TB/s)的约7倍 [3] - 以Llama 3.3 70B模型为例,Groq平台在不同上下文长度下能维持200-300+ token/s的稳定推理速度,显著优于传统GPU推理平台 [6] - Cerebras的晶圆级引擎3(WSE-3)芯片集成了高达44GB的片上SRAM,片上存储带宽达到21 PB/s,在OpenAI GPT-OSS 120B推理任务中实现了超过3000 tokens/s的输出速度,较主流GPU云推理快约15倍 [7] 行业巨头与初创公司的战略布局 - 英伟达在GTC 2026正式发布集成Groq LPU架构的推理芯片,其Groq 3 LPX机架方案搭载256个LPU,提供128GB片上SRAM和高达40PB/s的推理加速带宽,该芯片由三星电子代工,预计2026年下半年开始出货 [3] - OpenAI已确定成为英伟达Groq 3 LPU芯片的首批客户,并承诺投入300亿美元采购相关推理算力 [3] - 2025年12月,英伟达斥资200亿美元获得Groq知识产权的非独家授权,并吸纳了其核心工程团队,以弥补GPU在串行推理场景的架构短板 [8][9] - 2026年2月,Cerebras完成10亿美元H轮融资,估值达到230亿美元,并与OpenAI签署了一份高达100亿美元的合同,部署多达750兆瓦的定制AI芯片 [9] - OpenAI推出了首个运行在Cerebras AI加速器上的模型——GPT-5.3-Codex-Spark预览版,支持超过1000 tokens/s的代码生成响应速度 [9] 未来芯片架构与内存层级演进 - 英伟达采取务实路线,将Groq 3 LPU作为独立的推理加速器芯片,与Rubin GPU通过协同设计的架构进行组合,共同构成Vera Rubin平台 [10] - 未来的AI芯片将出现复杂的异构内存层级:底层是负责预填充(prefill)的计算晶圆,中间层是通过3D堆叠提供的大容量SRAM缓存用于高速解码(decode),旁边则通过CoWoS封装着大容量的HBM用于存储海量上下文 [10] - SRAM的回归并非替代HBM,而是推动内存层级走向更精细化分工的多元时代,两者是互补关系 [10][11] - 由于SRAM单元面积是DRAM的5到10倍,每比特成本极高,无法替代HBM作为主内存的角色,存储大模型权重仍需数百GB的HBM或DRAM [11] 对半导体产业链的影响与机遇 - 内存层级的细分可能扩大整个存储市场的总规模,未来数据中心可能需要同时配备用于训练的HBM服务器和用于实时响应的SRAM加速卡 [12] - SRAM直接集成在逻辑芯片内部,其设计与制造完全依赖于顶尖的逻辑制程工艺,这极大地凸显了晶圆代工厂的地位 [12] - 台积电被明确视为主要受益者,因为无论是英伟达采用N3P制程打造下一代LPU,还是其他厂商跟进类似架构,最终都要依赖其先进产线,这不仅意味着更高的晶圆平均销售单价,更巩固了其在AI半导体制造的核心地位 [13] - 中国台湾的存储供应链在SRAM路线中找到了新机会:华邦电的定制化内存业务中的PSRAM被视为成本与性能的折中方案;力积电通过3D AI Foundry策略展现了承接相关代工的潜力;钰创的产品线覆盖符合Groq LPU采用标准的SRAM;爱普则提供在功耗和带宽上实现倍数级提升的新一代ApSRAM [14]
英伟达GTC 大会重磅前瞻,下周资金将疯狂涌向这三个板块
36氪· 2026-03-13 08:12
GTC 2026大会核心意义 - 本次GTC大会的核心并非发布新品,而是英伟达试图重新定义AI基础设施的游戏规则,完成从硬件芯片公司向AI基础设施平台公司的身份跨越 [9] - 资本市场将此次大会视为2026年AI美股下一阶段主线归属的关键博弈点,其结果可能重塑整条AI产业链的价值分配逻辑 [8] 战略重心转变:从单芯片到系统级优化 - 英伟达的战略重点正从追求“单芯片算力峰值”转向“系统级优化”与“极限协同设计”,旨在将芯片、网络、内存、软件整合成高效、标准化的“AI工厂” [10] - 公司的核心竞争力评估维度,从过去的“发动机极限马力”(单GPU性能)转向未来的“整车极限协同设计”(系统规模化落地与投资回报率ROI) [11] - 市场关注点本质变化:从只关心算力峰值,转向关注系统大规模落地的可行性以及功耗和成本的回报率(ROI) [11] 关键预期差:工作负载分解 - 瑞银报告指出,最大的预期差在于“工作负载分解”,即根据AI任务的不同需求(如训练需“蛮力”,推理需“反应速度”)进行精细化分工,而非依赖单一“全能”GPU [12] - 工作负载分解是英伟达从“单芯片性能”转向“系统级性价比”的关键,通过为不同任务分配最合适的计算、网络和内存资源来优化整个系统 [15] - 此举并非削弱护城河,而是通过掌握“任务分配权”和“数据流动管理权”,强化公司在软件栈和系统层的绝对控制权,并可能推翻基于GPU出货量的传统估值模型 [15][17] 网络与互联成为新瓶颈与投资焦点 - 当AI进入成千上万颗芯片协同的“机架时代”,决定系统效率的关键从单卡算力转变为数据搬运的速度和延迟,网络与互联成为新的瓶颈 [18] - 投资逻辑正在从第一阶段的“算力中心”(核心指标:单卡算力Teraflops)重构为第二阶段的“互联中心”(核心指标:带宽与延迟Bandwidth/Latency) [19] - 硬件主角从单个GPU转变为交换机、光模块、互连技术;核心壁垒从芯片制程转向生态锁定与系统级调度 [19] - 控制网络即控制系统的“调度权”,使用英伟达的通信协议将增加客户未来的扩展和迁移成本,从而锁定其生态 [19] - 华尔街目光已穿过GPU,直接聚焦底层的光互连和硅光技术,特别关注1.6T光模块与硅光技术的进展 [20][21] 内存架构:SRAM与HBM的整合互补 - 英伟达正引入类似Groq的架构,利用片上SRAM实现超低延迟推理,以解决特定场景的延迟痛点 [24] - SRAM与HBM并非替代关系,而是基于工作负载分解的整合互补:SRAM延迟极低但容量天花板低,适用于对延迟极度敏感的专用推理;HBM容量极大,是维持AI系统大规模训练与运转的“系统级大动脉” [26][28] - 通过这种分层内存架构(SRAM/L1、L2、HBM及系统级互连协同),将不同负载放到最合适的资源上处理,旨在降低单位token生成成本,提升整个平台的投资回报率(ROI) [30] 代币经济学(Tokenomics)与财务估值 - 华尔街对AI的关注点已从资本开支规模,转向每一轮投入能否转化为更低的单位token成本和更高的商业回报 [30] - 英伟达近期的产品核心卖点已转向cost per token、吞吐/每兆瓦以及整套AI基础设施的经济可行性 [30] - 花旗报告推演,得益于系统级效率优化,英伟达2028财年每股收益(EPS)可能达到15美元,按当前股价计算远期市盈率(PE)约为12倍,显示市场可能仍以传统硬件制造商视角为其定价,存在巨大预期差 [32] - 瑞银数据预测,美光等厂商的HBM收入在2028年将飙升至270亿美元,且短缺预期延续数年,表明分层架构进一步固化了HBM作为主存核心的长期利润池地位 [32] 下一代产品路线图的系统化解读 - 下一代产品路线图(如Blackwell, Rubin, Feynman)的关键并非单卡算力提升,而是推动系统密度达到极限,在计算、带宽、内存、功耗处理等多维度同时提升 [35][36] - Rubin Ultra等产品代表了英伟达推动“基础设施标准化、系统化、平台化”的战略,迫使竞争对手在系统级能力上追赶,从而形成深厚护城河 [36] - 公司的估值逻辑正在从“卖最好的芯片”转向“卖唯一的AI系统”,产业链投资机会将外溢至网络架构、光互连、CPO(共封装光学)、硅光等领域 [36]
GSI (NasdaqGS:GSIT) 2026 Conference Transcript
2026-03-11 03:32
**公司:GSI Technology, Inc. (纳斯达克: GSIT)** * 一家拥有超过30年历史的半导体公司,传统业务为高性能SRAM产品,目前正重点开发下一代技术——关联处理单元(APU)[2] **核心观点与战略** * **技术核心 (APU架构)**: * APU采用存内计算(CIM)架构,将处理单元直接置于内存阵列中,从而在数据存储位置直接进行计算,避免了传统架构中数据在内存与计算单元间频繁移动的瓶颈[8] * 该架构显著降低了延迟和功耗,特别适合对功耗和延迟有严格限制的边缘计算环境[3][9] * APU拥有超过100万个可并行工作的位处理器,支持大规模并行处理,且位宽可动态配置(如从8位到3位),而非像GPU那样固定[9][10] * **市场定位 (专注边缘AI)**: * 公司明确将边缘AI作为目标市场,而非数据中心[4] * 边缘AI市场预计将从当前的约200亿美元增长至2030年的1200亿美元,公司瞄准的细分市场规模目前约为70亿美元,并将在未来五年内翻倍以上[14] * 目标应用包括无人机、SAR卫星、任何自主系统、智慧城市、自动化仓库等[15] * **产品路线图**: * **当前产品 (Gemini-II)**:针对边缘环境设计,已在无人机周界安全等概念验证(POC)中击败NVIDIA Jetson和Qualcomm Snapdragon方案,在满足3秒首词元生成时间的同时,功耗仅为30瓦,远低于竞争对手[12][13] * **下一代产品 (Plato)**:专门为边缘大语言模型(LLM)设计,目标功耗约为10瓦或更低,计划于2027年上半年完成设计流片,预计2028年开始贡献收入[15][16][18] * **未来规划**:已就Plato的下一代产品与合作伙伴展开讨论[18] * **竞争优势与验证**: * 在无人机监控POC中,同时满足了性能(3秒首词元)和极低功耗(30瓦)的要求,击败了NVIDIA和Qualcomm的方案[13][25] * 康奈尔大学发表的论文显示,在同等性能的RAG应用中,APU架构相比GPU可节省超过99.5%的功耗[25] * 已获得总计440万美元的美国政府小企业创新研究(SBIR)资助,并有价值6000万至1亿美元的SBIR项目处于申请管道中[18][20] * **财务与运营**: * **传统SRAM业务**:提供财务基础,已为APU研发投入超过1.75亿美元[4];在截至本月末的2026财年,营收预计将较2025财年增长约25%[5];过去十二个月营收略低于2500万美元[4] * **现金状况**:通过2025年10月的股权融资净筹集4700万美元,目前拥有超过7000万美元的现金及现金等价物,无负债[5][21][26] * **成本控制**:通过外包制造、组装和部分销售,将员工人数高效控制在122人,其中大部分为硬件或软件工程师[5] * **盈利能力**:抗辐射加固(Rad-Hard) SRAM产品具有极高的平均售价(ASP,从几千到高达3万美元)和超过90%的毛利率[23] * **知识产权与制造**: * 已为APU申请了87项专利[5] * 与台积电(TSMC)有超过30年的合作关系,APU也将使用相同的晶圆厂和封装测试合作伙伴(如ASE)[4][26][31] **其他重要信息** * **近期设计进展**:Plato的设计已于上一季度启动,并为此购买了价值超过300万美元的IP[21] * **收入构成预期**:未来2-3年,收入将更倾向于国防/军事应用,随后将向智慧城市等商业边缘应用拓展[27][28] * **产品规格**:Gemini-II内置96MB内存,是前代产品的8倍;而Plato将减少内部缓存以提升数据吞吐带宽[28][29] * **外部内存选择**:为保持低功耗和低成本,Plato将采用GDDR5,而非HBM2[30] * **股权结构**:内部人士持股比例较高,达20%[6] * **传统业务地位**:在SRAM市场拥有最高密度和性能的产品,领先竞争对手1-2代,且竞争对手已冻结其技术路线图,公司预计将保持领导地位[22][23] * **潜在战略选择**:公司不排除在出现合适机会时出售传统SRAM业务的可能性[33]
Micron stock soaring 6% today: should you buy before earnings?
Invezz· 2026-03-11 01:20
公司股价表现与市场背景 - 美光科技股价在周一上涨5.1%后,周二继续上涨6.4%至414.25美元 [1] - 当前股价仍较其2月2日创下的437.80美元历史收盘高点低约5.2% [1] - 股价上涨发生在公司3月18日发布2026财年第二季度财报之前 [1] 分析师观点与目标价调整 - 花旗集团重申买入评级,并将目标价从385美元上调至430美元,理由是超大规模数据中心运营商的需求强劲 [1] - 花旗分析师Atif Malik指出,供应链信息显示内存成本上涨是大型云公司资本支出增加的主要原因,并预计2026年DRAM价格将飙升171% [1] - Susquehanna分析师Mehdi Hosseini重申积极评级,并将目标价从345美元大幅上调至525美元,他认为供需可能在2027年年中开始平衡 [1] - Aletheia Capital的Warren Lau将目标价上调至650美元,为华尔街新高,意味着较当前水平有约70%的上涨空间,他上调了盈利预测,原因是用于AI训练和推理的高带宽内存需求激增 [1] 行业需求与价格动态 - 人工智能基础设施的需求加速,预计将持续推动内存需求 [1] - 分析师预计,用于AI工作负载的内存产品将保持强劲的长期需求 [1] - 随着“智能体AI”应用的兴起,对服务器DRAM、SRAM和基于CXL的内存系统等其他内存技术的需求也在增加 [1] - 一些预测表明,本季度DRAM价格可能上涨高达70%,反映了与AI基础设施相关的供应紧张和需求强劲 [1] - 需求激增据报道已推动客户通过预付款安排来确保内存供应,从而增强了美光近期的定价能力 [1] 财报预期与业绩展望 - 华尔街预计公司第二财季每股收益为8.52美元,营收为188.5亿美元 [1] 竞争格局与潜在挑战 - 据报道,英伟达计划在其即将推出的Vera Rubin AI平台的初始版本中,使用由三星电子和SK海力士供应的HBM4内存 [1] - 预计美光将为主要用于推理工作负载的Rubin CPX系统供应HBM4芯片,而非预计首先推出的更高性能的训练系统 [1] - 报告显示,英伟达正在推动供应商提供超过每秒10千兆比特的内存速度,这超过了JEDEC当前设定的HBM4规范 [1]
ram在AI推理中拓展应用,堆叠方案可助力容量扩充
东方证券· 2026-03-07 15:59
行业投资评级 - 电子行业评级为“看好”(维持) [5] 报告核心观点 - SRAM在AI推理中拓展应用,堆叠方案可助力容量扩充 [2][7][8] - 事件驱动:英伟达将于2026年3月16日举办GTC 2026大会,市场关注其有望结合Groq LPU芯片架构推出新的AI推理芯片方案,进而驱动SRAM拓展应用 [7] - SRAM可实现较高的访问速度,读写速度极快,访问时间仅约10纳秒甚至更低,远超DRAM [7] - SRAM架构在AI推理中拓展应用,头部厂商加速布局。SRAM容量较小但工作速度快,在AI推理过程中,对于小参数模型的模型权重、数据流架构中的中间结果和权重数据等部分容量要求小但访问速度要求高的数据,可作为HBM之外的重要存储层级补充 [7] - 产业进展:2025年12月英伟达斥资200亿美元获得Groq知识产权的非独家授权。Groq LPU采用容量达数百MB的片上SRAM存放模型权重,片上带宽高达80TB/s [7] - 产业进展:Cerebras推出的晶圆级引擎3(WSE-3)芯片拥有多达44GB的片上SRAM存储。2026年2月,OpenAI发布其首款搭载Cerebras Systems芯片的AI模型GPT-5.3-Codex-Spark,并有望在2026~2028年把750MW规模的Cerebras芯片集成到其AI推理计算资源库中 [7] - 3D堆叠方案助力SRAM实现容量扩充,AMD等头部厂商已有布局。该方案可通过垂直堆叠存储单元的方法来提升密度,规避传统SRAM容量受面积密度限制的问题 [7] - 产业进展:2021年AMD公布3D垂直缓存(3D V-Cache)技术,可将额外的7nm SRAM缓存垂直堆叠在Ryzen计算小芯片顶部 [7] - 产业进展:2024年7月,富士通介绍旗下MONAKA处理器采用3D SRAM技术,计划2027年出货。该处理器采用3D芯粒架构,所有末级缓存位于5nm SRAM芯片(底层芯片)中 [7][17] 投资建议与相关标的 - 投资建议:SRAM在AI推理中拓展应用,堆叠方案助力容量扩充 [3][8] - 相关标的覆盖多个产业链环节 [3][8]: - 布局定制化存储方案的国内头部存储芯片设计厂商:兆易创新、北京君正等 - 布局基于SRAM的数字存算一体方案:恒烁股份 - 布局先进封装:长电科技、通富微电等 - 布局混合键合设备:拓荆科技、华海清科、百傲化学、芯源微等 - 有望受益于英伟达新芯片方案的头部PCB厂商:深南电路、沪电股份、胜宏科技等 - PCB上游企业:生益科技、南亚新材、宏和科技、菲利华、中材科技等
科技动态:SRAM- 一种全新的 AI 推理范式-Tech Bytes-SRAM – A New AI Inference Paradigm
2026-03-06 10:02
**涉及的行业与公司** * **行业**:AI推理芯片与高性能内存市场,特别是SRAM和HBM领域 [1] * **覆盖公司**:三星电子 (Samsung Electronics, 005930.KS/005935.KS)、SK海力士 (SK hynix, 000660.KS)、英伟达 (NVIDIA)、Groq [5][12][85] **核心观点与论据** * **AI推理新范式**:AI计算正从通用计算转向以推理为中心的、更专业化且确定性的架构,以突破实时推理的物理限制 [10] * **SRAM与HBM的混合架构趋势**:AI推理内存市场正走向混合模式,SRAM在延迟敏感型工作负载中开辟利基市场,而HBM在吞吐密度方面仍占主导 [1] 未来的AI系统很可能是分层的,结合用于热路径执行的SRAM和用于可扩展内存容量的HBM [3] * **LPU作为新型推理芯片**:LPU是一种专为运行已训练AI模型而构建的推理芯片,旨在实现最快、最高效的运行 [12] 其架构基于确定性、编译器优先的方法,大量使用片上SRAM,将数据保留在计算核心本地,提供比HBM3e快10倍的带宽 [13] * **SRAM与HBM的权衡**:SRAM提供超低延迟和即时数据可用性,但成本更高、密度更低;DRAM/HBM提供更高容量和更低的每比特成本,但速度较慢 [11] SRAM访问速度比HBM快约20倍 [12] 当前SRAM/HBM每GB的溢价已降至历史约30倍水平的5倍 [14] * **LPU的理想与不理想工作负载**: * **理想**:低延迟应用(金融交易、游戏、对话AI)、多步推理、有稳定性能要求的应用 [27] * **不理想**:模型训练、批处理、超大型模型(超过1T+参数)、边缘部署 [27] * **投资观点**: * 三星电子是首选股,因其在HBM4认证、SRAM、晶圆代工可选性及商品上行周期方面的优势 [5] * 同时维持对SK海力士的“增持”评级 [5] * 股价近期出现调整(周内下跌20%,同期韩国综合指数下跌17%),这为买入提供了良好机会,因为股价往往与基本面增长的上行轨迹脱钩并跌破该轨迹 [5] * 每股收益增长预测仍有很大回升空间,且尚未被市场定价 [5] **其他重要内容** * **技术细节**: * DRAM单元由1个晶体管和1个电容器组成,需要周期性刷新(约32-64毫秒),密度高但速度较慢(50-100纳秒) [17] * SRAM使用触发器电路,无需刷新周期即可保留数据,访问速度更快,但成本更高,密度更低 [14] * 台积电在2nm-CMOS-纳米片技术中推出了38.1Mb/mm²的SRAM,用于高密度和节能计算应用,其设计使用0.021um²高密度位单元,并通过DTCO将整体SRAM密度比上一技术节点提高了1.1倍 [28] * **新兴替代技术**:随着技术发展,MRAM、ReRAM和eDRAM等新兴替代存储技术可能变得可行,并进一步调整内存格局 [25] * **估值与风险**: * 对SK海力士和三星电子均采用剩余收益模型进行估值,假设股本成本为11.5%,终端增长率为3% [29][30] * **上行风险**:平均售价增长重新加速、需求大幅改善、资本回报显著增加、AI和超大规模数据中心增长带来的更持久内存上行周期、半导体收益增长集中 [32][33] * **下行风险**:终端需求弱于预期、DDR5竞争加剧导致供应侧过度支出、云和中国智能手机客户库存保持高位 [32] * **行业评级**:摩根士丹利对韩国科技行业的观点为“具吸引力” [6]
英伟达将推出新推理芯片
半导体芯闻· 2026-03-05 17:36
韩国股市波动与英伟达技术传闻 - 韩国KOSPI指数过去两日跌幅均超过10%,创2008年以来最大两日跌幅[1] - 市场普遍将下跌归因于地缘政治引发的全球资金避险情绪[1] - 有分析指出,一则关于英伟达的技术传闻对韩国内存股造成了精准打击[1] - 传闻称英伟达正在开发一种利用Groq片上SRAM架构的新型推理芯片,并计划在3月GTC大会上公布[1] - 此消息导致投资者担忧SRAM会减少对包括HBM在内的主内存需求,进而打击了韩国内存股[1] - 韩国股市随后出现强劲反弹,KOSPI指数当日涨幅扩大至11%,三星电子大涨13%,SK海力士飙升15%[1] 市场对SRAM芯片冲击的潜在误判 - 分析机构KIS指出,认为低成本SRAM推理芯片将减少HBM等主内存使用的观点,反映了对内存的糟糕理解[2] - 从物理特性看,SRAM单元面积更大,密度低于DRAM,导致其每比特成本显著更高[2] - 对于相同容量,SRAM通常需要DRAM 5到10倍的裸片面积[2] - SRAM历史上一直用于需要极低延迟的缓存或片上缓冲应用,而非作为存储大量数据的主内存[2] SRAM架构的定位与内存层级多元化趋势 - SRAM架构并非DRAM的替代品,而是一个独立的选项[5] - 与DRAM相比,以SRAM为中心的架构具有访问延迟极低和数据移动最小化的优势[5] - 英伟达计划利用Groq架构,是为了针对GPU难以处理的特定推理工作负载进行优化[5] - 采用SRAM架构应被理解为针对需要超低延迟的特定数据中心工作负载,以及需要实时响应的物理AI边缘应用的独特选择[5] - 例如,OpenAI已在其数据中心部署了Cerebras的SRAM芯片,并基于此提供收费更高的API服务[5] - 基于Groq的SRAM架构的普及将进一步细分AI基础设施内的内存层级[5] - HBM和DRAM将继续作为大规模模型训练和通用推理服务器的主内存[5] - 涵盖SRAM、HBM和DRAM的内存层级将变得越来越具有多层次性,最终推动整个内存行业总潜在市场的扩张[6]