Workflow
AI推理
icon
搜索文档
西部数据(WDC.US)2026财年第二季度电话会:2026年的产能基本已售罄
智通财经网· 2026-01-30 14:22
公司业绩与财务表现 - 2026财年第二季度营收为30亿美元,同比增长25%,每股收益为2.13美元,同比增长78% [9] - 第二季度毛利率为46.1%,同比提升770个基点,环比提升220个基点,运营费用为3.72亿美元,营业利润率为33.8% [12] - 第二季度经营现金流为7.45亿美元,资本支出为9200万美元,自由现金流为6.53亿美元,自由现金流利润率为21.6% [13] - 公司预计第三季度营收为32亿美元(正负1亿美元),同比增长约40%,毛利率预计在47%至48%之间,稀释后每股收益预计为2.30美元(正负0.15美元) [13] - 第二季度云业务收入为27亿美元,占总收入89%,同比增长28%;客户端业务收入1.76亿美元,占6%,同比增长26%;消费级业务收入1.68亿美元,占5%,同比下降3% [10][11][12] - 公司第二季度向客户交付了215 EB的数据,同比增长22%,其中包括超过350万块、总计103 EB的最新一代ePMR硬盘 [9] - 公司自2025财年第四季度启动资本回报计划以来,已通过股票回购和股息向股东返还14亿美元,第二季度支付股息4800万美元,股票回购6.15亿美元 [13] 市场需求与客户订单 - 公司2026日历年的产能基本已售罄,已与前七大客户签订了确定采购订单 [1][6] - 公司与前五大客户中的三家签订了长期协议,其中两家合作至2027日历年底,一家至2028日历年底 [6] - 首席执行官强调AI推理应用将驱动HDD需求结构性增长,推理过程生成的海量新数据需要被低成本存储 [1] - 公司认为AI从训练转向推理将创造更多数据存储需求,这对HDD的未来非常有利 [35] - 公司上个季度最新一代ePMR产品出货量超过350万块,提供高达26TB的CMR和32TB的UltraSMR容量 [6] 产品技术与创新 - 公司正通过提高硬盘面密度、加速HAMR和ePMR路线图,推动客户采用更高容量硬盘和UltraSMR技术 [5] - 公司已分别与不同的超大规模客户启动了HAMR和下一代ePMR产品的认证工作 [6] - 公司最近收购了相关知识产权、资产和人才以发展内部激光器能力,加速HAMR技术创新 [6] - 公司发布了支持UltraSMR的平台,将UltraSMR的采用范围扩大到更广泛的客户群 [6] - 公司计划在2026年2月3日的创新日活动上分享HAMR和ePMR产品的更新路线图及财务模型 [7] - 公司对Colab进行了战略投资,旨在结合双方专长推进下一代纳米制造工艺,以提高量子比特性能 [7] 运营与成本 - 公司上个季度每TB平均售价上涨了2%到3%,每TB成本同比下降了约10% [17] - 公司预计未来几个季度将保持稳定的定价环境,并继续推动毛利率扩张 [17] - 公司ePMR产品的良率持续表现良好,在90%出头的范围内,客户反馈可靠性高 [29] - 公司预计即使在2027年初开始HAMR量产,资本支出占收入的比例仍将维持在4%至6%的范围内 [33] - 公司毛利率改善得益于产品组合持续向高容量硬盘转移,以及严格的成本控制 [12] 业务战略与客户关系 - 公司采取了以客户为中心的方法,与超大规模数据中心客户紧密合作,确保大规模交付可靠、高容量硬盘 [5] - 公司已将组织重心转向大型超大规模客户,为每个客户设立专门团队,深化了技术路线图开发和需求可见性方面的关系 [23] - 公司认为与客户签订的长期协议反映了客户对公司满足其EB级存储需求的信心 [6] - 公司认为其提供的定价反映了为客户创造的价值,特别是在总体拥有成本方面的影响 [20] 产品组合与趋势 - 上个季度,在近线产品组合中,UltraSMR的占比超过了50%,且预计这一比例还会增加 [27] - 公司的前三大客户已经全面采用UltraSMR,另有两到三家正在采纳过程中 [27] - UltraSMR相比CMR有20%的容量提升,相比行业标准SMR有10%的提升,且是一个基于软件的解决方案,对利润率非常有益 [27] - 公司认为推动客户转向更高容量的硬盘,特别是UltraSMR,是支持客户需求增长的重要方式 [27] 其他公司动态 - 公司仍持有750万股闪迪股票,并计划在分拆一周年之前通过类似“债转股”的方式将其变现,收益将用于进一步减少债务 [21] - 公司自2025年5月宣布20亿美元的股票回购授权以来,已使用该计划中的13亿美元,回购了约1300万股股票 [24] - 公司已将HAMR硬盘的认证时间提前,已于本月开始与一家超大规模客户的认证,并很快将与另一家启动认证 [30][36]
西部数据电话会:2026年产能已售罄,长约签署到2028年,AI推理正在重塑HDD估值体系
华尔街见闻· 2026-01-30 12:50
核心财务表现 - 2026财年第二季度营收30.2亿美元,调整后每股收益2.13美元,双双超市场预期 [3] - 第二财季净利润达18.4亿美元(每股4.73美元),较去年同期的5.94亿美元(每股1.27美元)增长210% [3] - 第二财季毛利率同比暴增770个基点至46.1%,第三季度指引进一步看高至47%-48% [4][18] - 当季自由现金流为6.53亿美元,自由现金流利润率为21.6% [19] - 公司预计第三季度营收为32亿美元(正负1亿美元),按中值计算同比增长约40%,稀释后每股收益指引为2.30美元(正负0.15美元) [20] 盈利能力与成本控制 - 增量毛利率(Incremental Margin)维持在75%左右的高位 [4][23] - 盈利能力提升源于每TB平均售价(ASP)上涨2-3%,以及每TB制造成本同比下降约10% [4][24] - 运营费用为3.72亿美元,作为收入的百分比环比下降120个基点 [19] - 公司预计资本支出占收入的比例将维持在4%至6%的范围内 [37] 市场需求与客户订单 - 2026年产能已全部售罄,已与前七大客户签订了覆盖整个2026日历年的确定采购订单 [3][16] - 与前五大客户中的三家签署了长期协议(LTA),其中两家合作至2027日历年底,一家至2028日历年底 [5][16] - 长期协议条款中同时包含了价格和数量条件 [5][42] - 客户看到了结构性的价值转变,协议不仅锁量,更是对未来定价的认可 [5][26] 产品与技术进展 - 上个季度最新一代ePMR产品出货量超过350万块,提供高达26TB的CMR和32TB的UltraSMR容量 [14][18] - 在近线产品组合中,UltraSMR的占比超过了50%,且预计这一比例还会增加 [32] - 已将HAMR(热辅助磁记录)技术的客户验证时间表从原计划提前了半年,已于2026年1月启动了首个超大规模客户的验证 [7][35] - 公司有信心HAMR开始量产后,其毛利率起步阶段就能做到与现有ePMR技术“中性甚至增益” [7][37] AI驱动与行业趋势 - AI价值链正从“模型训练”向“推理应用”转移,推理过程生成的海量新数据需要被低成本地存储,这对HDD是结构性利好 [8][9] - 超大规模数据中心正在将大量推理数据回流至HDD [9] - 过去几个季度,公司数据交付量(EB)实现了20%出头的增长,AI推理预计将推动更多的数据存储需求 [39] - AI和云业务共同推动了对更高密度存储解决方案的探索和需求 [13] 资本回报与资产负债表 - 第二财季支付了4800万美元的股息,并将股票回购额增加至6.15亿美元,回购了380万股普通股 [19] - 自2025财年第四季度启动资本回报计划以来,已通过股票回购和股息支付向股东返还了14亿美元 [19] - 董事会已批准每股0.125美元的季度现金股息 [20] - 截至第二财季末,现金及现金等价物为20亿美元,总流动性为32亿美元,净负债为27亿美元,净杠杆与EBITDA之比远低于1倍 [19]
从拼模型到算成本,曦望用S3 GPU给出最佳答案
半导体芯闻· 2026-01-29 18:10
AI产业重心从训练转向推理 - AI产业重心正从模型训练转向推理,推理请求正成为持续消耗算力的主要负载[1] - 根据德勤报告,到2026年推理算力占比将达到66%,超过训练算力[2] - 大模型产业已迈入下半场,2025年推理Token消耗量实现百倍增长,推理算力正式超越训练算力,成为算力产业发展的核心驱动力[3] 曦望科技的战略定位与行业洞察 - 公司是国内第一家All in推理的GPU芯片公司,使命是把大模型推理做到极致[2] - 行业正发生三大根本性改变:需求端结构性转变(推理成为主力)、应用场景质变(高频实时交互)、成本结构倒逼(推理成本占AI应用成本高达70%)[2] - 公司选择反向创新道路,将单位Token的成本、能耗及SLA服务稳定性作为芯片设计的核心出发点,目标是实现推理成本90%的降幅[2] - 推理GPU的竞争关键在于能否将硬件能力稳定转化为可交付、可计价的推理算力[7] 启望S3芯片的核心技术创新 - 芯片支持FP16、FP8、FP6、FP4等全系列低精度算力,单芯片推理性能较行业同类产品提升五倍[6] - 芯片是国内首款搭载LPDDR6的GPGPU推理专用芯片,采用大容量DDR替代HBM[4][6] - 芯片采用先进工艺节点并搭载最新高速接口IP[6] - 公司较早提出以大容量DDR替代HBM、以高性价比推理专用芯片替代训推一体芯片的战略[4] 寰望SC3超节点解决方案 - 方案对标千亿、万亿参数多模态MoE模型的实际部署需求,支持单域256卡一级互联[6] - 方案可高效适配PD分离架构与大EP规模化部署,提升系统利用率与运行稳定性,匹配长上下文、高并发等复杂场景[6] - 方案采用全液冷设计,可实现极致PUE,支持模块化交付与快速部署[6] - 在同等推理算力水平下,该方案可将整体系统交付成本从行业普遍的亿元级降至千万元级,实现成本一个数量级的下降[6] 软件与生态兼容性 - 公司打造全栈自研软件平台,全面对齐并兼容CUDA生态,支持用户代码无缝迁移[7] - 通过对CUDA底层驱动、Runtime、编译器、工具链的全面兼容,结合极致优化的算子库与通信库,提供GPU应用的快速迁移服务[7] - 启望S3已完成对ModelScope平台90%以上大模型的适配,涵盖商汤日日新、DeepSeek、通义千问、GLM等主流模型,累计适配国内外百余种大模型[7] AI原生智算平台与商业模式 - 公司推出新一代AI原生智算平台,核心优势为软硬件深度协同、资源极致弹性、开箱即用及稳定可靠的运维保障[11] - 平台采用先进的量化压缩技术,在几乎不损失精度的前提下将推理性能提升250%[12] - 平台通过GPU池化技术、动态扩缩容技术、智能负载预测技术实现算力高效利用[12][13] - 公司打造MaaS平台,支持模型一键调用和定制化优化,解决模型适配难题[13] - 平台实现全链路智能化管理,千卡集群可用性达99.95%,可连续运行60天无计划外中断,故障处理实现“1分钟发现、3分钟定位、5分钟恢复”[13] - 公司构建绿色算力优势,涵盖高能效比芯片设计、锁定长期廉价核电资源、精细化运营三个维度[14] - 商业模式是芯片硬实力加云基建软实力的Token as a Service模式,可提供公共、定制化、混合Token服务[14] 产业合作与生态建设 - 商汤科技董事长徐立指出,推理成本过去两年下降280倍,是推动AI产业爆发的关键转折点,芯片与模型的深度协同是降本核心[15] - 徐立认为曦望通过架构优化和推理任务专注,已实现视频实时生成,性价比优势持续凸显[15] - 第四范式创始人戴文渊透露,在中交蓝翼大模型适配项目中,曦望算力成本低至每百万Token 0.57元[15] - 公司与商汤科技、第四范式深度合作,共同向“百万Token一分钱”的算力成本目标迈进[16] - 公司与杭钢数字科技、浙江算力科技等本土算力平台合作,完善全国算力网络布局[16] - 公司与三一、协鑫、游族等十余家跨领域生态伙伴签约,推动推理算力嵌入智能制造、能源服务、C端消费、机器人等多元产业场景[16] - 公司与浙江大学签约成立“浙江大学曦望智能计算联合研发中心”,聚焦光互联GPU超节点架构、半导体虚拟制造等领域开展联合攻关[17] 未来展望与产业影响 - 在推理时代,算力竞争核心已从“拼峰值”转向“算单位成本”[18] - 公司正通过芯片架构重构、系统级优化和生态协同,将“百万Token一分钱”从愿景变为现实[18] - 随着S3芯片在2026年底量产,S4、S5陆续推进,中国AI产业的成本曲线正在被重写[18] - 当推理算力变得便宜、稳定、到处可用,AI才能真正成为普惠的基础设施,推动千行百业的智能化转型[18]
未知机构:东吴计算机无惧回调持续推荐GPUNative数据库-20260129
未知机构· 2026-01-29 10:10
涉及的公司与行业 * **公司**:星环科技[1][2][3]、海力士[2][3]、英伟达[2][3] * **行业**:GPU-Native数据库[1][2][3]、AI推理[2][3]、存储[2][3]、云服务[2][3] 核心观点与论据 * 星环科技股价回调被判断为资金交易因素,基本面未发生变化[1][2] * AI推理时代是大势所趋,GPU-Native数据库需求旺盛[2][3] * 英伟达已推出新的存储架构[2][3] * 星环科技正与英伟达紧密联合研发和调优GPU-Native数据库,且进展顺利[3] 其他重要信息 * 海力士业绩大超预期,带动美股存储板块盘前大涨[2][3] * 近期如moltbot等应用火爆,云服务出现涨价[2][3]
微软这颗芯片,撼动英伟达?
半导体行业观察· 2026-01-29 09:15
微软Maia AI加速器战略背景 - 微软是OpenAI模型的最大用户及构建GPT模型的最大计算合作伙伴,这为其打造更强大的Maia AI加速器提供了双重动力[2] - 大型云服务商及主要GenAI模型开发商(如OpenAI、Anthropic、Meta)均在开发定制AI XPU,以降低生成式AI推理的单代币成本[2] - 人工智能推理预计所需计算能力将比训练高出一个数量级,为超过一百家人工智能计算引擎初创公司创造了市场机会[2] 云服务商自研芯片的行业逻辑 - 微软等云服务商希望掌控自身硬件资源,同时保留通用x86 CPU及英伟达/AMD GPU以满足客户租用需求[3] - 云服务商通过自研计算引擎并以低于第三方产品的价格竞争,旨在减少对传统芯片供应商的依赖[3] - 类似逻辑也适用于亚马逊AWS、谷歌、百度、阿里巴巴、腾讯等自行设计CPU和XPU的公司[3] - Meta Platforms虽非严格意义上的基础设施云,但通过出租硬件运行Llama模型API,正成为面向主权国家的GenAI平台云[3] Maia 100 (Athena) 芯片设计与性能 - 芯片发布于2023年11月,设计初衷是支持AI训练和推理,并专门用于运行OpenAI的GPT模型[4] - 芯片采用台积电5纳米工艺,面积820平方毫米,晶体管数量1050亿个[12] - 计算引擎包含64个核心(推测良率下有效核心数可能为52-56个),运行频率约2.86 GHz[12] - 芯片上L1/L2缓存总容量约500MB,SRAM带宽估计为132 TB/秒[12] - 配备4组HBM2E内存,总容量64GB,带宽1.8 TB/秒[12] - 每个核心的张量单元支持微软特有的MX6(6位)和MX9(9位)数据格式[13] - 互连I/O带宽为12个400 Gb/s端口,总计4,800 Gb/s(600 GB/s)[14] - 网络设计支持构建包含576个节点、总计2304个计算引擎的集群域[19] - 芯片峰值热设计功耗(TDP)为700瓦,持续功耗为500瓦[20] Maia 200 (Braga) 芯片的升级与改进 - 芯片于2026年1月发布,专门针对AI推理任务,简化了设计[5] - 采用台积电N3P(3纳米高性能版)工艺,面积836平方毫米,晶体管数量1440亿个[21] - 核心数量增至96个,良率约92%,主流产品预计有88个可用核心[20][22] - 运行频率提升至3.10 GHz[20] - L1/L2缓存SRAM容量降至272MB,SRAM带宽降至80 TB/秒[20] - HBM内存升级为6组HBM3E,总容量216GB,带宽大幅提升至7 TB/秒[20][22] - 后端网络带宽提升至56个400 Gb/s端口,总计22.4 Tb/s(2.8 TB/s)[20][21] - 主机互连升级为PCI-Express 5.0 x16,带宽64 GB/秒[20] - 集群相干域规模扩大,支持最多1536个节点和6144个计算引擎[19][20] - 性能方面,FP4精度达10.15 petaflops,FP8精度达5.07 petaflops,BF16精度达1.27 petaflops[20][24] - 持续热设计功耗(TDP)为750瓦[20] - 张量单元仅支持FP4和FP8格式,向量单元支持BF16和FP32,不再支持Maia 100特有的MX6/MX9格式[13] Maia 200的部署与应用 - 首批Maia 200机架已部署在美国中部的Azure云区域(爱荷华州得梅因),美国西部3区域(亚利桑那州凤凰城)也将跟进[26] - 微软将使用Maia 200计算引擎为OpenAI GPT-5.2大型语言模型提供推理服务,驱动Microsoft Foundry AI平台及Office 365 Copilot[26] - 微软的AI研究人员还将使用Maia 200生成合成数据,用于训练内部模型[26] - 目前尚未有关于Azure何时会提供基于Maia 200的虚拟机实例供租用的消息[26]
曦望发布启望S3推理成本较上一代降约90%,押注「极致性价比」GPU与算力新范式
IPO早知道· 2026-01-29 08:15
行业背景与公司战略定位 - AI产业正从“训练驱动”转向“推理驱动”,推理阶段更强调长期交付能力、单位成本和系统稳定性 [2] - 公司(曦望)的战略是围绕推理场景,构建“芯片+系统+生态”的整体布局,而非仅销售芯片 [2] - 公司希望通过推理算力体系的系统性创新,助力AI应用实现规模化落地与可持续增长 [3] 新一代推理芯片“启望S3”的核心性能 - 启望S3是一款面向大模型推理深度定制的GPGPU芯片,定位为“All-in 推理” [4][5] - 相比上一代产品,S3在典型推理场景下的整体性价比提升超过10倍 [5] - S3支持从FP16到FP4的精度自由切换,以提升低精度推理效率 [5] - S3在国内GPGPU产品中率先采用LPDDR6显存方案,显存容量较上一代提升4倍,缓解大模型推理的显存瓶颈 [5] - 在DeepSeek V3/R1满血版等主流大模型推理场景中,S3的单位Token推理成本较上一代降低约90%,实现“百万Token一分钱” [5] 围绕S3构建的算力产品体系 - 公司已构建与CUDA兼容的基础软件体系,支持推理应用低成本迁移,相关能力已覆盖ModelScope平台90%以上的主流大模型形态 [6] - 公司发布了面向大模型推理的寰望SC3-256超节点方案,可适配千亿、万亿级参数的多模态MoE推理场景 [6] - 寰望SC3采用全液冷设计,在同等算力规模下,整体交付成本控制在千万元级别,较行业内同类亿元级方案降低一个数量级 [6] - 公司推出了覆盖PCIe、OAM模组、一体机及AI计算集群在内的S3产品矩阵,覆盖从单机推理到大规模集群部署的多样化需求 [6] 推理云生态与交付模式创新 - 公司推出共建推理云计划,旨在将推理算力从“设备能力”转化为可标准化、可规模化的服务能力 [7][8] - 共建推理云以启望S3为底座,通过GPU池化与弹性调度整合算力资源,以MaaS(Model as a Service)为核心入口提供开箱即用的服务 [9] - 该推理云在千卡级集群场景下可用性达到99.95%,横向扩展效率超过95% [9] - 公司联合商汤科技、第四范式等生态伙伴发起“百万Token一分钱”推理成本计划,标志着大模型推理正从“技术可行”走向“经济可行” [9] 市场进展与产业合作 - 2025年,公司专注于推理GPU的芯片交付量已突破万片 [2][3] - 公司与浙江大学签署战略合作协议,联合成立“智能计算联合研发中心”,围绕光互连GPU超节点架构、计算光刻及AI气象预测等前沿方向展开研究 [10] - 公司与中交信科集团、杭钢数字科技、浙江算力科技、三一集团、协鑫科技等企业达成战略合作,推动推理算力在交通、制造、医疗等行业的落地应用 [10]
云天励飞陈宁:AI推理爆发带动全球产业进入“中国时刻”
上海证券报· 2026-01-27 03:16
行业趋势:AI发展重心由训练转向推理 - 2026年是AI发展核心推动力由AI训练转向AI推理的转折之年,是未来五年AI应用大规模落地的开端[3] - 2025年相当于互联网时代的“iPhone时刻”,2026年将是未来五年大规模AI应用落地的开端[5] - 随着AI应用大规模落地,AI推理市场将进入一个指数级增长的时代,其增速和规模将远超过往的AI训练[6] 市场前景:AI推理市场规模巨大 - 保守估计,到2030年,全球AI训练的算力市场会达到1万亿美元的规模,而全球AI推理市场的规模将会达到4万亿美元至5万亿美元的规模[6] - AI推理计算将增长超过10亿倍[6] - 博通2024财年AI收入同比大增220%至122亿美元,2025财年达200亿美元,同比增长超65%,目前在手订单达730亿美元[7] 竞争格局:中国在AI应用时代的优势 - 随着AI进入应用爆发期,全球AI产业将进入“中国时刻”的新发展阶段[9] - 中国发展AI应用的优势包括丰富的互联网应用场景、数据资源以及强大的工程化能力[9] - 中国拥有全球最为齐全的工业门类和全球最大量的工程师群体,两者协同将产生最为丰富的AI应用场景及解决方案[10] 公司战略:云天励飞聚焦AI推理芯片 - 公司瞄准并等待AI推理市场,从早期的行业解决方案,到大模型时代的标准硬件及服务,再到当前发力的AI推理芯片[3][12] - 公司经历了AlexNet带动的小模型时代、以ChatGPT为代表的大模型时代,并进入到当前的算力驱动阶段[12] - 公司构建了包括AI算法、云天天书大模型、AI芯片和AI应用及解决方案在内的完整数据飞轮[12] 产品与技术:云天励飞的芯片路线与目标 - 公司目标是在三年内,将百万token的综合推理成本压缩到1分钱[4][11] - 评估AI推理芯片公司的重点不是看其芯片架构或技术路线,而是看其是否能让用户获得更低成本的token[4] - 公司全新的第五代AI芯片Nova500采用GPNPU架构,研发正在有序推进中[11] - 公司的GPNPU架构可理解为“中国版TPU”,在统一技术架构下融合了三方面技术优势:GPU的可编程性和生态兼容、“算法芯片化”理念、以及存算一体和3D堆叠等先进封装技术[12] 应用落地:AI应用渗透加速 - 到2027年,全球80%以上的企业都会有业务运行在大模型之上;到2030年,全球范围内AI的智能总和将超越全人类[5] - 公司已将AI大模型应用到公司的研发、销售与管理等全业务链条中[5] - 随着推理算力市场爆发,公司推理芯片的出货量将迎来增长拐点,互联网大厂、运营商及AI初创公司的需求都在快速增长[13]
美股异动 | 金山云(KC.US)盘前涨6% 星流平台完成战略升级
智通财经网· 2026-01-26 22:24
公司战略与产品动态 - 金山云高级副总裁宣布,其智算平台“金山云星流”已完成从资源管理平台向一站式AI训推全流程平台的战略升级 [1] - 升级后的平台构建了从异构资源调度、训练任务故障自愈到机器人行业应用支撑、模型API服务商业化落地的全链路闭环 [1] - 金山云星流平台通过提升平台效率、突破行业边界、加速推理布局的三维进阶,为迎接AI应用爆发做准备 [1] 行业市场前景 - 麦肯锡报告预测,2028年全球AI推理市场规模将达到1500亿美元 [1] - 2025年至2028年,全球AI推理市场复合年增长率预计将超过40% [1] - 智算作为承接AI推理需求爆发的核心基础设施,将迎来前所未有的市场增量空间 [1] 市场反应与机构观点 - 消息发布后,金山云(KC.US)在美股盘前交易中上涨6%,股价报13.08美元 [1] - 申万宏源认为,AI对业务的拉动作用与生态协同效应将在未来持续释放 [1]
研报掘金丨国海证券:维持澜起科技“买入”评级,或受益于CPU与GPU比例的提升
格隆汇APP· 2026-01-26 16:32
公司业绩与预测 - 澜起科技预计2025年归母净利润同比增长52.29%至66.46% [1] - 公司互连类芯片出货量预计将增加 [1] 行业趋势与市场机遇 - AI推理在扩大HBM、DRAM需求的同时,也提高了对CPU的要求 [1] - 当GPU频繁访问DDR内存时,CPU的并发请求需求将增加,其对GPU和内存资源管理的要求也将提高 [1] - AMD预计其人工智能服务器CPU市场将从2025年的约82亿美元增长到2030年的约300亿美元 [1] - 澜起科技互连类芯片需求,或受益于CPU与GPU比例的提升 [1] 公司技术与竞争地位 - 内存互联技术持续迭代 [1] - 澜起科技的Retimer芯片市场份额位居全球前二 [1] - 公司深度布局CXL技术 [1] 投资观点 - 公司有望受益于AI时代对内存互连芯片需求的增加 [1] - 维持对澜起科技的“买入”评级 [1]
AI推理刚需,NAND“周期更长更稳”!摩根大通:本轮主角是eSSD,铠侠成为首选
华尔街见闻· 2026-01-26 11:34
文章核心观点 - AI推理浪潮正驱动NAND闪存行业进入一个由企业级SSD需求引领的全新超级周期,其增长逻辑从强周期大宗商品转变为高增长的AI基础设施资产,市场对此存在严重低估 [1] 行业增长逻辑与市场前景 - NAND行业潜在市场规模年均复合增长率将从过去多年的7%-12%区间,在2025-2027年跳涨至34%,迎来断层式增长 [3] - 本轮增长呈现“量价齐升”的罕见共振,2026年NAND混合平均销售价格预计同比大幅上涨40%,2027年价格预计仅微跌2%,维持高位运行 [3] - 市场对存储股的定价正从“周期属性”转向“AI成长属性”,自2025年1月以来全球存储板块市值已激增242%,且重估远未结束 [6] AI推理驱动eSSD成为核心需求 - 在AI推理阶段,企业级固态硬盘的重要性不亚于HBM高带宽内存,是AI的“隐形基石” [7] - AI推理的核心是延迟与上下文,需要从海量参数中快速检索,这对外部存储提出了极高要求 [10] - KV Cache Offloading技术突破允许将GPU显存中的中间状态数据卸载到外部存储,eSSD因此演变为AI计算系统中的“二级内存” [8][9] - 2024年eSSD的比特出货量同比增长了惊人的86%,增速水平上一次出现是在2012年 [11] - AI服务器单机存储容量需求预计达70TB以上,是通用服务器的3倍以上,到2027年eSSD将占据全球NAND比特需求的48%,成为第一大需求支柱 [11] HDD供应瓶颈与QLC替代机遇 - 机械硬盘供给出现危机,大容量近线HDD交货周期已长达2年,且供应极度短缺 [14][15] - HDD厂商因过去几年市场低迷大幅削减资本开支,无法在短期内扩产以满足AI带来的数据存储需求井喷 [15] - HDD缺货迫使数据中心客户转向NAND闪存,为QLC闪存提供了绝佳的上位机会,尽管其价格是HDD的6-8倍 [16] - SSD在“业务关键型”存储领域的渗透率仅为19%,未来替代HDD空间巨大,其渗透率每提升1个百分点将为NAND行业带来约20亿美元的增量收入 [16] 供给侧结构性限制与资本开支克制 - 未来三年NAND行业资本开支占销售额的比例预计将降至15%-16%,远低于过去十年30%-50%及2018年68%峰值的水平 [20] - 供给侧表现出前所未有的克制,产能扩张受技术瓶颈严重制约,而非简单的资本开支驱动 [19][20] - 技术瓶颈包括:堆叠层数突破300/400层后刻蚀难度指数级上升、晶圆翘曲问题以及混合键合技术的高门槛和高成本 [23] - 2026年全球NAND晶圆产出同比增速预计仅为3%,供应增长几乎完全依赖技术升级,在比特需求21%的增速下将导致全年供不应求 [24] 主要厂商竞争力分析与投资排序 - **铠侠**:被列为亚洲首选标的,因其独特的CBA架构能实现极高的I/O速度,完美契合AI推理需求,且作为纯NAND厂商最能直接享受涨价红利,其服务器业务营收占比预计将从2023年的20%飙升至2027年的61% [26][34] - **SK海力士**:被长期看好,其子公司Solidigm在QLC技术及超大容量eSSD市场拥有极强定价权,且公司是唯一同时在AI训练和AI推理两端占据主导地位的厂商 [27][34] - **三星电子**:被视为短期补涨标的,正在加速QLC技术量产以夺回市场份额,其服务器业务占比预计将从2023年的29%提升至2027年的66%,估值具有修复空间 [28][34] - **美光科技**:采取差异化策略,用232层TLC技术竞争QLC市场,预计将持续受益于美国本土数据中心的强劲需求 [29]