LPU
搜索文档
三星电子营收再超英伟达
傅里叶的猫· 2026-04-08 21:27
文章核心观点 - 存储器行业正经历由AI驱动的结构性变革,其核心驱动力是HBM需求的爆发式增长,这导致传统DDR内存产能被挤压,引发供需严重失衡和价格超预期上涨 [5][6] - 行业商业模式因“增强型长期供应协议”的普及而改变,有望显著削弱行业周期性,带来更稳定可预测的现金流 [9][10] - 三星电子是此轮行业变革中的关键受益者,其在英伟达供应链中的地位以及存储器业务的爆发,使其业绩和未来现金流预期极为亮眼 [2][4][11] 三星电子的业绩与市场地位 - 2026年第一季度营收133万亿韩元,已超过英伟达,营业利润57.2万亿韩元,营业利润率高达43%,远超市场预期 [4] - 不仅是英伟达全层级存储的核心供应商,更独家代工英伟达的LPU(采用三星N4工艺),在英伟达Rubin平台上的综合价值量已超过台积电 [2][3] - 有机构预测,三星电子可能成为2027年营业利润最高的公司,超过英伟达、谷歌、苹果、微软等科技巨头 [5] 存储器价格与利润率的超预期增长 - 2026年第一季度DRAM价格环比上涨88%(其中DDR上涨97%),NAND闪存价格环比上涨84%,涨幅几乎是市场预期(30-50%)的两倍 [5] - 价格暴涨推动三星存储器业务利润率达到历史性高度:DRAM业务营业利润率从上一季度的56%跃升至78%,NAND闪存业务利润率从25%飙升至67% [7] - 对于SK海力士,UBS预计其2026年全年营业利润率将达到80.5%,2027年进一步提升至83.4% [7] HBM需求引发的结构性供需变化 - AI大模型爆发驱动HBM需求井喷,而HBM与传统的DDR内存共享同一套生产设备和产能 [6] - 到2026年底,HBM将占用约500k wpm(每月晶圆)产能,相当于整个DRAM行业产能的25%;到2027年底,这一比例将进一步上升至31%,对应690k wpm产能 [6] - 传统DDR内存的可用产能因此急剧萎缩,但服务器、PC、手机等传统需求并未消失,导致供需缺口被撕开,且这种产能转移是长期结构性现象 [6] - UBS指出,DRAM的供应不足将持续到2027年第四季度,是至少持续两年的结构性短缺 [6] 行业商业模式的根本性转变 - “增强型长期供应协议”正在重塑行业,供应商与云计算巨头和大型OEM签订更稳固的长期合约,锁定未来几年供应量并设定价格区间,甚至包含预付款机制 [9] - 针对超大规模数据中心客户,未来可能有超过50%的DDR出货量被固定在这类长期协议中 [10] - 这种变化意味着存储器行业的周期性波动可能被显著削弱,价格和利润率的波动范围收窄,为投资者带来更稳定可预测的现金流 [10] 行业公司产生的惊人现金流 - UBS预计,三星电子2026年自由现金流将达到205万亿韩元,2027年高达385万亿韩元 [11] - 按公司承诺的50%现金流回报政策,2026年将有92万亿韩元、2027年将有181万亿韩元用于股票回购和特别分红 [11] - 对于SK海力士,UBS预计其2026年股权自由现金流收益率将达到21.6%,2027年高达40.5% [11] 本轮行业上行周期与以往不同的核心原因 - AI对高性能存储器的需求强度和持续性,超过了PC时代和移动互联网时代 [14] - HBM对传统DDR产能的挤压,创造了一种新的动态供需平衡机制,即使传统需求回落,HBM增长也能吸收释放的产能 [14] - 长期供应协议的普及从机制上降低了厂商盲目扩产的风险 [14] - 存储器在AI中的重要性空前提升,使存储器厂商的议价能力显著增强,客户为确保供应稳定愿意接受更有利供应商的条款 [14]
硅谷前沿访谈:CUDA之父复盘英伟达20年护城河,揭开万亿算力帝国的底牌
AI科技大本营· 2026-04-07 18:51
公司战略与平台演进 - 公司的核心优势已从单一的芯片领先,演进为一整套围绕训练、推理与AI工厂组织起来的生态级平台能力,其护城河在于将芯片、系统、软件和开发者拧成统一生态平台的底层逻辑[3] - 公司同时推进七款芯片和五种机架架构,目标是以前所未有的规模服务AI工厂,完成训练与推理,以推动下一代智能体AI市场[5] - 公司通过每年发布一个新平台来保持创新节奏,这种快速迭代能力是应对AI领域高速演进的关键[25] 新产品与架构整合 - 正式将LPU纳入体系,其基于SRAM可实现极快浮点计算,但单独运行万亿参数模型需要几十个机架,在成本和基础设施效率上无法支撑大规模部署[5] - 通过将GPU与LPU优势整合到同一系统,让GPU负责注意力计算,LPU负责专家模型部分的矩阵计算,使得原本需要几十个LPU机架的工作仅需两个机架即可覆盖[6] - LPU主要服务于下一代智能体的工作负载,包括万亿参数模型、几十万Token级上下文以及每秒千Token级别的服务速度,而聊天机器人、图像生成等大部分市场需求仍由成熟平台Vera Rubin承担[6] - 推出Vera CPU,强调其兼具强单核性能与多核满性能运行能力,以承担AI智能体时代的工具调用、代码编译等任务,使GPU能调度CPU共同交付完整的AI体验,公司计划将其作为独立CPU且仅提供一种SKU推向市场[7] - 通过共封装光学技术,将Spectrum-6 CPO模块与NVLink结合,显著提升带宽与功耗效率,使得在单个机架内构建由72颗GPU协同工作的“巨型GPU”系统成为可能,未来计划将NVLink扩展规模提升至1152颗GPU[31][32][33] 软件生态与CUDA成功之道 - CUDA成功的关键在于没有重新发明编程语言,而是建立在广泛使用的C语言之上并做最小必要扩展,降低了开发者学习门槛[8] - 保持向后兼容性是CUDA的基石,从GeForce 8800到Vera Rubin,确保开发者的代码在每一代新硬件上都能沿指数曲线变得更快,即使CUDA 1.0的代码在Vera Rubin上也有百万倍的性能提升[9] - 如今的CUDA已发展成一个庞大的库和生态平台,拥有超过1000个CUDA-X库和模型,涵盖从电子结构理论、SQL查询、向量搜索到量子计算模拟等多个领域,其中许多库来自开发者社区[10] - 公司内部软件工程师数量已远超硬件工程师,软件与内核工程师与芯片设计团队被组织在同一体系内协同工作,确保从芯片到整个软件栈的同步优化与迭代[17] - AI编码正在加速CUDA的采用,公司内部已有部分CUDA内核由AI工具生成,AI Agent也深度参与CUDA-X库的调用与开发,显著提升了开发效率[18][19] 开放平台与开发者策略 - 公司的目标是为开发者打造开放平台以提升其工作效率,而非追求“主导地位”,开发者可根据需求选择从底层CUDA编程、调用库到使用预训练模型等不同切入点[12][13] - 平台保持高度开放性,开发者无需锁定整套方案,可以只购买部分组件,甚至让智能体工作负载运行在别家CPU上,公司也开放了NVLink技术,允许其他CPU或XPU集成[13][14] - 公司不公开GPU指令集,对外提供的是CUDA-X软件栈,这使得优化工作可以从最底层的芯片、内核一直延伸到整个软件栈,实现真正的软硬件协同设计[15][16] - 对于LPU,公司明确最终目标是开放其编程环境,但第一代重点是与前沿AI实验室合作支持标杆模型,未来将通过CUDA或更通用的方式实现可编程性[20] 系统集成与供应链 - 将三种不同芯片整合的最大挑战在于制造和供应链,涉及CoWoS封装、内存封装以及最终的系统级集成工程[25] - 实现AI工厂大规模部署依赖全球供应链与制造能力的协同,公司已建立包括液冷连接器、NVLink连接器、冷板等在内的完整零部件生态系统[29] - 系统工程是关键,通过复用NVL72等已建立起的供应链体系、制造流程和认证标准,使得新推出的LPX机架和Vera Rubin机架在外观和基础设施要求上保持一致,便于客户组合与集成[30] - 公司已成功将超级计算机的工程方法扩展到吉瓦级数据中心规模,目前每月出货的数据中心GPU总功耗达数个吉瓦[29] 行业竞争与创新格局 - 在推理领域,公司认为无法依靠单一芯片取胜,需要LPU、GPU、CPU、NVLink、Spectrum、ConnectX、BlueField等七款芯片协同工作,才能实现高性能、高吞吐以及理想的每Token成本,从而经济高效地大规模服务新一代智能体模型[23] - 行业创新无处不在,公司的角色是吸收各领域的最佳想法并将其推向市场,以实现更高的性能、每瓦特性能及更具优势的Token成本,然后将其规模化[24] - 面对AI工作负载专业化带来的基础设施异构化趋势,公司需要在专用化与提供可编程平台之间寻找平衡,保持芯片的开放性与可重配置性,是模型和软件得以持续优化、探索不同计算模式的基础[34]
引入LPU的英伟达,是在补强,还是在拆自己的护城河?丨GTC观察
雷峰网· 2026-03-31 21:54
文章核心观点 文章围绕英伟达GTC大会,探讨了在AI推理时代,因算力需求激增和摩尔定律放缓,行业正从关注经济成本转向关注物理能耗极限,这促使SRAM等旧技术因能效优势回归,并推动了LPU等专用推理芯片、整机柜算力方案以及软硬件生态战略的新趋势,同时分析了中国芯片产业在其中的机遇与挑战 [4][5][6][22] 谈芯片:LPU与SRAM的回归 - 推理时代到来,降低推理成本与延迟至关重要,结构更简化的LPU因此显现优势 [5] - LPU的一大亮点是采用SRAM架构,大幅减少了数据搬运时间,尽管其成本曾是DRAM的6倍,但能效是DRAM的128倍 [5] - 行业衡量标准正从“一美元能买多少Token”的经济逻辑,转向“每焦耳能产生多少Token”的物理能耗逻辑,这使SRAM的能效优势得以重现 [5][22] - 纯SRAM架构并非Groq独有,阿里、Graphcore等公司都曾涉猎;“GPU+LPU”的异构架构也是行业演进方向 [8] - LPU的价值在于其扩大了可触达市场,黄仁勋提出Token分层定价,意味着有人愿为极致性能支付溢价,这使得按LPU价值计算的市场规模扩大了数十倍 [9][27] 谈架构:整机柜算力与毛利率 - 英伟达从Blackwell NVL72到Rubin持续加码“整机柜算力”,旨在应对模型参数膨胀和MoE架构下需要上百张卡协同工作带来的高效互联需求 [13] - 超节点的技术迭代极快,例如英伟达展示了将组装时间从两小时缩短至几分钟的无缆化设计,而AMD的跟进方案仍采用英伟达两年前的互联技术 [14] - 英伟达约70%的高毛利率源于其将技术转化为长期盈利的能力,以及与台积电、Synopsys合作,用自身算力改进芯片设计,形成“智能”反哺“智能”的飞轮效应 [14] - 英伟达的强掌控力基于对核心技术与高价值环节的卡位,其战略是像华为、苹果那样作为链主企业,只吃高增长部分的蛋糕,将毛利较低环节交由供应链 [15] 谈软件:生态建设与国内破局 - 英伟达推出企业版软件栈NemoClaw并配套Nemotron开源模型,在OpenClaw基准测试PinchBench上,任务成功率直逼Claude Opus 4.6和GPT-5.4 [17][18] - 英伟达的软件策略并非与客户抢地盘,而是自己先跑通应用以引导客户,并通过开源开放构筑庞大的安装基础生态,最终为硬件“带货” [19] - 国内芯片公司普遍面临软件团队规模小、客户服务能力弱等困境,难以支撑完整生态建设 [19] - 破局之道包括:国内芯片企业可通过整合形成一两家有实力的平台型公司以集中资源;国内大模型在开源层面已接近国外水平,且国内在超节点的散热、互联、供电等工程化能力上有优势,可以美国几分之一的成本进行量产 [19][20] 行业趋势与国内机遇 - 未来趋势明确:更大的算力系统承载更大的模型,更高的智力产生更高的Token需求 [31] - 算力发展将从民主化转向集中化,真正的算力承担者将集中到云端以降低能耗和成本 [29] - 国内算力资本投入将持续增长,但会产生冗余和淘汰,行业需要出现能带动整个产业链繁荣的强链主企业 [31] - 国内芯片公司不宜盲目追求与英伟达相同的高毛利,而应在芯片互联、模型软硬件调优等领域突破创新,通过性价比打开市场,带动产业链成长 [15] - 对于从业者,行业需要增加对顶级人才的重视;能力稍逊者可选择小的细分赛道进行降维打击,避免与最强对手正面竞争 [31]
GTC-OFC-年报一季报
2026-03-26 21:20
行业与公司概览 * **涉及的行业**:AI算力产业链(包括芯片、光互联、铜互联、PCB、存储、液冷、数据中心IDC)、消费电子(含苹果产业链、折叠屏、3D打印)、港股互联网与游戏、AI医疗(含脑机接口、手术机器人)、计算机软件、分销商[1][2][3][4][5][6][7][8][9][10][11][12][13][14][15][16][17][18][19][20][21][22][23][24] * **涉及的公司**: * **海外算力/光互联**:英伟达(NVIDIA)、中际旭创、新易盛、天孚通信、罗博特科、源杰科技、长飞光纤、剑桥科技、东山精密、光库科技、太辰光、中瓷电子、光迅科技、润泽科技、高澜股份、中天科技、Lumentum、Coherent、Marvell、博通[1][3][4][5][6][7][13][14][16][17] * **消费电子**:裕同科技、大族激光、华曙高科[1][19][20] * **港股互联网与游戏**:腾讯、阿里巴巴、快手、哔哩哔哩、巨人网络、世纪华通、恺英网络、完美世界[1][9][10][11] * **AI医疗**:美年健康、康众医疗、晶泰科技、英矽智能、三博脑科、翔宇医疗、爱朋医疗、天智航、精锋医疗、微创机器人[20][21][22] * **计算机与分销**:金蝶国际、伟仕佳杰[1][23] * **其他**:润泽光能(IDC)[24] 核心观点与论据 AI算力需求与产业趋势 * **需求持续爆发且超预期**:海外算力需求2026年增速预估达150%-200%,国内算力预计增长30%-50%,呈现逐季加速态势[1][4] 英伟达对2027年营收达到万亿美元(trillion)的展望,增速预期比市场之前判断高出约20%[3] 大模型推理需求高速爆发,2B的coding应用进度显著快于2C的广告电商,推动硬件架构快速演进[5] * **产业链逻辑强化,部分环节超预期**:光模块(NPO、XDO技术)、铜缆互联、PCB(LPU应用)进展略超预期,液冷符合预期[3] 产业面临“中国缺芯,美国缺电,全球缺光(光模块)和铜缆”的紧缺状况[4] * **Token需求与算力形成强化闭环**:GPU价格和GPU token成本持续上涨,GPU资源非常紧缺,Token需求仍处于供不应求状态,渗透率尚处低位(如WPS AI渗透率不足5%)[8][24] 硬件技术演进与增量 * **NVIDIA LPU(语言处理单元)**: * **技术演进**:分三步走,最终与CUDA深度融合;深度整合进GPU叙事体系,构建“AI工厂的经济学”[6] 将在Rubin平台深度整合,部分特定型号会集成LPU和SRAM[8] * **规格与定价超预期**:SRAM容量与带宽翻倍,单卡SRAM价值从预测的200多美元升至500美元,带宽提升约15TB/s[1][6] 机柜内还包含1.5TB的DDR内存以及Intel的CPU和FPGA作为新增量[6] * **出货计划**:V1版本定于2026年Q3大规模出货,长期目标占据25%市场份额[1][6] * **供应链影响**:带来液冷(冷板和快接头)、PCB(推动向M8、M9等级过渡)、连接器(每个机柜内光纤连接器价值量达3万至5万美元,数量超8,000个)的确定增量[7] * **光互联(光模块/CPO)**: * **市场空间巨大**:2025年至2030年,全球AI光互联市场规模将增长5倍,未来四到五年将呈现指数级高增长[13] DCI(数据中心互联)市场到2030年将释放约60亿美元的市场空间[15] * **技术路径明确**:NVIDIA原则是“copper where you can, optical where you must”[7] Rubin架构明确在1.5T级别全面采用CPO技术路径,计划在新建数据中心将CPO作为1.5T级别对外连接的主流方案[1][7][14] * **细分环节高增长**: * **磷化铟衬底**:供给缺口高达30%甚至更高[13] * **EML光芯片**:2026年至2030年的复合年均增长率(CAGR)将达到85%,供给存在明显缺口,不排除未来涨价[13] * **1.6T可插拔光模块**:2026年是爆发元年,预计到2027年需求量可能达到800万只[1][15] * **CPO**:用于Scale-up场景,确定性高;Lumentum预测其用于CPO的超高功率光源(350mW及以上)在2025年至2030年的CAGR高达200%[14] * **OCS(光路交换)**:NVIDIA明确用于训练集群网络故障冗余切换;产业链预测2025年至2028年CAGR达150%[14] * **铜互联与PCB**: * **需求维持高增**:铜互联与PCB需求维持高增,LPU机柜及正交背板方案带动PCB层数升级[1] GTC大会展示多款采用铜互联方案的新品,铜方案(包括PCB和铜缆)存在显著增量[18] * **长期生命周期**:在OIO技术成熟前,预计将长期维持“一层铜,二层光”的两层架构;根据英伟达路线图,至少到2029至2030年,铜互联的生命周期都无需担忧[18] * **技术迭代**:2026年LPO机柜采用FPGA方案,预计2027年下一代LPU机柜将采用英伟达自家NVLink function芯片,带动带宽持续提升(从112G到224G甚至400G SerDes)[18] 各板块业绩预期与投资观点 * **业绩增速排序**:海外算力 > 国内算力 > 存储 > 光纤光缆 > 部分应用和消费电子[4] * **海外算力**:2025年年报海外算力业务普遍翻倍增长;2026年全年整体增速预计150%-200%以上;2026年Q1同比增速预计翻倍以上(100%-150%),但利润可能占全年1/6到1/9[4][5] * **国内算力**:2026年预计平均增速30%-50%,Q1是良好开端并逐季加速[4][5] * **存储**:受产品涨价驱动,短期内可能实现较高增速,但高增长可持续性或仅为两到三个季度[1][4] * **AI光互联公司**:2026年Q1景气度和基本面表现最为突出;以中际旭创和新易盛为代表,其2027年预期估值已低于10倍[16] Q1业绩增速预测显示,中际旭创、新易盛、源杰科技等海外业务链公司预计同比增长1-2倍;天孚通信、太辰光等预计同比增长50%-100%[17] * **消费电子**:关注AI端侧与折叠屏放量[1] 2026年上半年苹果产业链表现偏向积极,二季度进入投资窗口期,关注折叠产业链和3D打印[19] 裕同科技通过收购华研新材切入液冷与金属密封件业务,估值具备安全边际[1][20] * **港股互联网与游戏**:估值处于历史底部(PE 10-15倍),基本面稳健[1] 腾讯市盈率不到15倍,阿里巴巴电商业务市盈率不到10倍,云业务市销率不到3倍[11] 游戏板块2026年Q1景气度预计非常好[11] 部分公司估值已接近历史最低水平(如A股游戏板块历史最低约11-12倍PE,当前部分达12-13倍)[9][10] * **存储分销商**:伟仕佳杰等分销商受益于B端突破与毛利提升;2025年利润13.5亿港币,指引未来三年利润复合增速20%以上;预计2026年利润若达16亿港币,当前市盈率约7倍多,具备高性价比[1][23] * **AI应用**:Llama是2026年以来最大的应用爆发增量,单季度实现3-4倍流量增长,预计到年底流量至少再翻4-5倍[9] * **计算机软件**:金蝶国际2026年AI业务目标规模为10亿人民币,剔除现金后OCF估值约十七八倍,现金流估值不足20倍[23] * **AI医疗**:长期看好拥有真实数据壁垒(如美年健康积累超2亿人次结构化数据)或已实现支付闭环的公司[20][21] 脑机接口有政策支持和产业研发推进[20][22] 手术机器人产业相对成熟,业绩兑现度更高,2025年大部分相关公司收入端高速增长[22] * **投资策略与排序**: * **AI高景气板块**:逢低积极布局,排序为:大模型(产业化从0到1,弹性最大) > 国产算力双雄(进入1到N,2027年PE估值可能降至30倍以下) > IDC[24] * **市场波动期**:应在不确定性中寻找确定性,关注业绩确定性高、估值消化充分的算力相关领域[2] 采取“看长做长”策略,短期恐慌情绪边际影响减弱,产业基本面定价逻辑强化[12] 其他重要内容 * **地缘政治与宏观影响**:地缘冲突可能刺激数据中心重建需求,推高AI产业链需求;中国凭借稳定的能源结构和社会环境,供应链确定性和稳定性优势明显[2] 若油价大幅上涨(例如超过150美元/桶),可能引发全球对经济衰退和通胀的担忧,但AI作为提升效率的技术,需求可能更为刚性[2] * **IDC与算力租赁**:在Token需求爆发下,头部IDC厂商因交付能力和速度(目前要求T+12)优势将显著受益[24] * **太空算力**:概念在言论层面超出预期,但目前尚未产生实质性影响[3]
SemiAnalysis:GTC 2026深度解读,推理王国全面扩张
傅里叶的猫· 2026-03-24 16:33
文章核心观点 文章基于对GTC 2026的深度分析,系统阐述了英伟达通过整合其创新的LPU(语言处理单元)与GPU,并引入注意力-FFN分离(AFD)等新架构,旨在构建一个覆盖硬件、互联、存储、软件和运维的完整AI基础设施平台,以巩固其行业领导地位并应对日益复杂的AI工作负载需求[1][67] Groq LPU架构与价值 - **核心产品与定位**:Groq的核心产品是LPU,这是一种专为语言模型推理设计的处理器,其设计路线与英伟达GPU追求高吞吐量不同,LPU主打超低延迟,以优化用户体验(如首token时间TTFT)[3] - **架构创新**:LPU采用独特的“切片”架构,将不同功能(如向量运算VXM、数据读写MEM、张量变换SXM、矩阵乘法MXM)在空间上横向排列,数据横向流动,指令纵向传递[3] - **性能关键**:采用单级SRAM替代传统多级缓存,结合高带宽SRAM和激进的流水线设计,是实现超低延迟的关键[4] - **SRAM的权衡**:大量使用SRAM带来了极低的延迟和快速的单用户token生成速度,但总吞吐量受限,因为有限的SRAM容量(如第三代LP30为500MB)很快被模型权重占满,留给KV Cache的空间少,无法批量处理大量用户[9][10] LPU发展历程与供应链 - **第一代LPU**:采用GlobalFoundries的14nm工艺,拥有230MB SRAM,提供750 TFLOPs的INT8算力[5] - **第二代LPU**:计划采用三星SF4X工艺,但因来自AlphaWave的C2C SerDes IP无法达到112G速度而失败,未能量产[5][6] - **第三代LPU(LP30)**:采用三星SF4工艺,SRAM翻倍至500MB,算力提升至1.2 PFLOPs FP8,芯片尺寸接近光罩极限[6] - **未来路线图**:LP35是LP30的小改款,增加NVFP4数字格式支持。LP40将是英伟达深度参与设计的首款LPU,将转向台积电N3P工艺,采用CoWoS-R封装,支持NVLink协议,并引入混合键合DRAM技术[8] - **供应链策略**:LP30使用三星SF4工艺,不占用紧张的台积电N3产能,也无需HBM,这是竞争对手难以复制的增量产能[13] 注意力-FFN分离(AFD)技术 - **技术原理**:将Transformer模型层中的Attention(注意力)和FFN(前馈网络)计算分离。Attention放在GPU上处理,因其擅长处理动态工作负载且HBM容量可全用于KV Cache;FFN放在LPU上处理,因其架构具有确定性,适合静态计算[17][18] - **性能收益**:当GPU只执行注意力操作时,其HBM可完全用于KV Cache,从而增加能处理的总token数,提升每个专家处理的平均token数[19] - **通信优化**:采用Ping-Pong流水线并行技术隐藏GPU与LPU之间的token路由(分发与合并)通信延迟,实现计算与通信重叠[21] - **其他应用**:LPU还可用于加速推测解码,通过小型草稿模型预测多个token再由主模型验证,可将每个解码步骤的输出token数提升1.5到2倍[23] LPX机架系统设计 - **系统构成**:展示的LPX机架包含32个1U LPU计算托盘和2个Spectrum-X交换机[26]。每个计算托盘包含16个LPU、2个Altera FPGA、1个Intel Granite Rapids主机CPU和1个BlueField-4前端模块[28] - **LPU布局**:采用“腹对腹”安装(8个在PCB顶面,8个在底面),以减少PCB走线长度[32] - **FPGA作用**:充当“Fabric Expansion Logic”,功能包括:协议转换(C2C转以太网、C2C转PCIe)、节点内通信管理、提供最多256GB的额外DDR5内存池用于KV Cache[32][33] - **网络架构**:分为Scale-up(C2C网络)和Scale-out(通过Spectrum-X与GPU交互)网络。每机架Scale-up总带宽宣称达640TB/s[33] - **连接器供应商**:Amphenol为LPX提供背板所有连接器,但因需求旺盛,已将Paladin连接器和背板电缆盒制造授权给FIT[35] Kyber机架更新与互联技术 - **密度提升**:Kyber机架计算刀片密度翻倍,从每刀片2个GPU变为4个Rubin Ultra GPU,机箱数量减半,总GPU数达144个[36][37] - **互联带宽**:每个Rubin Ultra逻辑GPU提供14.4Tbit/s单向的scale-up带宽,需72个NVLink 7交换芯片实现全互联[39] - **连接器变化**:英伟达为Kyber设计了专有Voronoi连接器规格,不再使用Amphenol的Paladin,FIT在竞标中领先[43] - **更大规模互联探索**:供应链已在探索NVL288概念,即连接两个NVL144 Kyber机架,实现288个GPU全互联,这对互联带宽和电缆数量提出极高要求[44] CPO(共封装光学)路线图 - **部署策略**:英伟达的策略是优先使用铜缆,仅在必要时使用光学器件。CPO将主要用于实现更大规模计算系统的机架间互联[45][46] - **Rubin代部署**:NVL72和NVL144机架内采用全铜scale-up。NVL576(8个Oberon机架)在机架间使用CPO,主要用于小批量测试[47][50] - **Feynman代展望**:NVL1152(8个Kyber机架)确定使用机架间CPO。机架内互联是采用铜缆还是CPO尚有争议,当前基准预测是机架内铜缆加机架间CPO[47][49][53] - **挑战**:大规模部署CPO(如NVL576)面临光学器件数量巨大导致的BOM成本暴增问题[52] Vera ETL256 CPU机架 - **设计目标**:为解决AI工作负载中日益增长的CPU需求瓶颈,实现前所未有的单机架256个CPU的密度,必须采用液冷[55][56] - **架构设计**:机架包含32个计算托盘(每托盘8个Vera CPU)和4个1U MGX ETL交换托盘,采用对称分割设计以最小化电缆长度,机架内通过Spectrum-X实现全铜互联[56] - **协同工作流**:Vera CPU集群与GPU集群(如NVL72或NVL144)协同,负责数据预处理、后处理等工作[57] 存储层标准化(CMX与STX) - **存储层瓶颈**:KV Cache随序列长度和用户数线性增长,设备HBM容量不足,成为推理基础设施瓶颈[58] - **CMX(原ICMS)**:定位为G3.5存储层,介于主机DRAM(G2)和共享存储(G4)之间,本质是通过BlueField DPU连接的存储服务器,提供更智能的数据管理[59] - **STX参考架构**:旨在标准化存储层设计,明确指定集群所需的驱动器、Vera CPU、BlueField-4 DPU等组件配置[59] - **生态整合**:CMX和STX是英伟达将其控制力从计算、网络层扩展至存储层的努力[63] 供应链关键参与者 - **IP供应商**:LP30/LP35的SerDes IP来自高通收购的AlphaWave,LP40将转用英伟达自有的NVLink SerDes IP[6][64] - **PCB供应商**:LPX计算托盘需要极高规格的PCB,每个主板PCB约7000美元,供应商为Victory Giant和WUS[32][64] - **连接器供应商**:Amphenol是LPX背板连接器主要供应商。FIT获得了Amphenol的制造授权,并在Kyber的Voronoi连接器竞标中领先[35][43][64] - **光学模块争议**:Kyber机架原型采用中板光学模块(MBOM)替代可插拔OSFP笼子,以降低成本、提高性能,但超大规模客户抵制,因其限制了供应商选择和维护灵活性[65] 英伟达生态系统与竞争壁垒 - **平台化转型**:英伟达正从芯片公司转向平台公司,构建覆盖硬件、互联、存储、软件、运维的完整AI基础设施栈[67] - **多层护城河**: - **性能护城河**:最先进的GPU/LPU架构、最快的互联技术[68] - **生态系统护城河**:CUDA开发者生态、完整的软件栈[68] - **标准护城河**:推动NVLink、MGX、CMX/STX成为事实标准[68] - **供应链护城河**:与台积电、HBM供应商的深度合作,关键组件的专有设计[68] - **知识护城河**:系统级优化know-how和大规模部署经验[68] - **竞争格局**:竞争对手(如AMD、Intel)面临的不只是芯片性能差距,更是整个生态系统的差距,包括系统解决方案、软件生态和规模经济[68]
半导体:AI 供应链追踪-GTC-OFC 大会核心投资者反馈-Greater China Semiconductors-AI Supply Chain Tracker Key Investor Feedback from GTCOFC
2026-03-24 09:27
涉及的行业与公司 * **行业**:大中华区半导体行业、AI供应链、数据中心/云计算半导体、光通信(CPO/XPO/CPC)、服务器[1][5][7] * **公司**: * **核心覆盖/提及**:Aspeed Technology (5274.TWO)、NVIDIA、TSMC、ASE、King Yuan Electronics (KYEC)、FOCI Fiber Optic Communications、AllRing Tech[4][5][64][79] * **其他提及**:Alchip、GUC、Samsung、Broadcom、Marvell、Arista、Meta (Marshall覆盖)、Teradyne、FormFactor、MPI、Advantest、Amphenol、FIT、Senko、TFC、Molex、Himax、AuthenX、Browave、InnoScience、Navitas、Groq、Alibaba、ByteDance、Cloudflare、Google、Microsoft[3][5][21][25][28][50][58] 核心观点与论据 1. GTC (GPU技术大会) 关键要点 * **新产品与路线图**:NVIDIA发布了Vera CPU服务器机架、STX存储机架和LPU,并将数据中心产品路线图扩展至2028年,包含三代硬件[10] * **LPU (语言处理单元) 的影响**: * Groq 3 LPU计划于2026年下半年推出,采用液冷LPX机架,配备256个LPU,具有128GB片上SRAM和640 TBps纵向扩展带宽,针对低延迟AI推理[11] * LPU机架定价可能仅为Rubin机架的10–20%,因其生产成本低得多[2][12] * 投资者在讨论LPU对HBM和服务器DIMM的长期影响[2][12] * **Vera CPU与Rubin GPU**: * Vera CPU机架专为Agentic AI设计,单个机架可集成256个处理器,计算效率是传统机架级CPU的两倍,支持数万个智能体同时在线运行[21] * Rubin Ultra芯片尺寸将是前代的2倍,计划在2027年发布Kyber NVL144机架级解决方案,性能是Blackwell NVL72系统的4倍[36] * Rubin已投入生产,这对关键代工/测试合作伙伴(台积电、京元电子)和外围芯片(Aspeed)是积极的[5] * **CPO (共封装光学) 发展**: * NVIDIA正式推出Spectrum-6 CPO,将光功率效率提高5倍,达到每端口2Tb/s,网络可靠性提高10倍[25] * 黄仁勋表示未来需要更多铜缆和光芯片/CPO产能,暗示将同时推进铜和光互连[25] * 最终解决方案(可能在2030年)在很大程度上必须依赖光学进行纵向和横向扩展[25] * **机架设计讨论**: * 新的Kyber机架总计算量减少,但计算刀片更大,后端有巨型交换刀片[2][37] * 投资者质疑是否需要为更大的Rubin Ultra芯片重新设计机架,以及CPO是否会用于多机架“纵向扩展”[2][37] * **经济模式转变**:管理层讨论了“Token经济学”,将高性能计算集群重新定义为“Token工厂”,关注每瓦吞吐量和每秒Token数,从2万亿美元的软件许可市场转向预计8万亿美元的Token转售经济[47][48] 2. OFC (光纤维通信大会) 关键要点 * **整体情绪积极**:需求强劲,限制主要在供应端,超大规模企业正与光学供应商密切合作[49] * **技术路线竞争**: * 供应商继续争论横向扩展用光模块(Transceiver)与CPO,以及纵向扩展用CPO与铜缆,同时准备所有解决方案供客户选择[3][50] * 光模块供应商展示了800G、1.6T甚至3.2T产品,1.6T在2025年强劲上量,3.2T进入客户采样,最早目标2027年下半年量产[50] * CPO阵营(NVIDIA、Broadcom)展示了嵌入约100T CPO交换机的1.6T光学引擎产品(Spectrum-X和Tomahawk 6),计划2026年下半年发货,并准备3.2T、6.4T甚至12.8T产品[50] * 在3.2T时代可能会看到显著的功耗差异,这可能促使更多客户转回光模块[50] * **其他技术方案**: * Arista展示了与Amphenol和FIT合作的XPO解决方案,用于12.8T,配合液冷散热[50][59] * 投资者也赞赏多家供应商的XPO和CPC解决方案,但多数认为其终端价值仍面临挑战[3] * **供应链参与者增加**: * 多家供应商对进入CPO外围领域感兴趣,如FAU(光纤阵列单元)[58] * 随着台积电建设其CPO/COUPE平台,MPI、Teradyne、FormFactor、Advantest和Ficontec等公司进入供应链,开发不同的CPO测试设备[58] * 私人公司如AuthenX与代工合作伙伴合作,利用12英寸65nm CMOS技术节点开发下一代Metalens产品[58] 3. Aspeed Technology 更新与观点 * **上调长期展望与目标价**: * 董事长将长期BMC(基板管理控制器)总目标市场从4650万台上调至2030年的6577万台,主要受AI相关通用服务器需求推动[4][67] * 公司将目标价从12,345新台币上调至13,488新台币[7][90] * 看涨和看跌情景价值分别从14,380新台币和6,170新台币上调至15,700新台币和6,700新台币,意味着2026年预期市盈率分别为77倍和33倍[90] * **需求预测**: * 2025-2030年通用服务器增长将稳定在6%[67] * AI相关通用服务器将占:2026年通用服务器总需求的25%,2027年的45%,2028-2030年期间的20%[4][67] * **定价与成本**: * AST2700平均售价约为24美元;包括其他解决方案,总成本可能升至约30美元[67] * 预计从4月1日开始涨价,季度环比涨幅至少为15-20%[67][87] * 由于原材料短缺(如T-glass),尽管2026年上半年仍受影响,但管理层预计在增加泰国和中国供应商后,2026年下半年将完全解决[67] * **订单与产能可见性**:客户开始提供相当于其单月营收7-8倍的预测,尽管公司无法排除重复下单,但目前发货量远超所有客户需求,客户预计2027年产能将同比翻倍[68] * **财务预测上调**:将2026、2027和2028年每股收益预测分别上调14%、10%和9%,基于AI服务器和通用服务器的持续强劲表现[87] 4. 大中华区半导体投资影响与看好标的 * **整体看好**:对云端半导体和CPO前景保持积极[1] * **具体看好公司**: * 在亚洲半导体中,超配台积电、京元电子、日月光、三星和Aspeed[79] * 同时看好亚洲ASIC设计服务提供商Alchip和GUC,以及CPO供应商FOCI和AllRing[5][79] * 在台湾,看好Allring、FOCI和ASE作为关键的CPO投资标的[5] * **对存储器的谨慎看法**:关于存储器的争论可能持续,最近对大中华区传统存储供应商转向保守[5] * **代工格局**:LPU目前由三星生产,但认为未来世代可能不会仅由一家代工厂生产[5] 其他重要但可能被忽略的内容 * **机架电源发展**:InnoScience、Navitas等公司展示了800–50V和800–6V电源模块,但低压(30V)GaN在展台巡览中仍然缺席[28] * **STX存储架构**:BlueField-4 STX架构相比传统CPU架构,能实现4倍高的能效,并可为企业AI数据每秒摄取2倍多的页面[27] * **Feynman未来平台**:Feynman GPU将采用芯片堆叠和定制高带宽内存,并将是首个采用包含共封装光学的NVLink交换机的NVIDIA发布产品[45] * **Aspeed新业务机会**:公司预计Google的下一代TPU将采用其BMC,这预计将贡献2027年预期营收的11%和2028年预期营收的21%[104] * **研究团队观点差异**:报告引用了其他分析师(如Joe Moore关于GTC,Meta Marshall关于OFC)的研究要点[7][49]
未知机构:申万计算机国产算力思考260322第四期从GTC的架构之变看云厂对算力-20260323
未知机构· 2026-03-23 10:05
**关键要点总结** **涉及的行业与公司** * 行业:人工智能算力 云计算 半导体 * 公司:英伟达 (NVIDIA) 云厂商 (如可能涉及Claude、OpenAI的云服务) **核心观点与论据** * **GTC大会核心变化是引入LPU** 其设计目标是为满足Agentic LLM推理对极低延迟的需求 采用完全确定性编译和静态SRAM保障数据读取确定性[1] * **英伟达采用A-F-D分离架构** 实现算力端解耦 LPU负责解码阶段的FFN计算 (特别是MoE计算) 而GPU负责Prefill和解码的Attention计算 使各部分承担最适合的职能[1][2] * **供需不对称是云服务涨价的持续动力** 供给端半导体产能增长是二次幂 而需求增长是指数型 由大模型机制决定 例如chatbot算力需求与(用户数*用户粘性)的平方成正比[3] * **新推理系统满足云厂对ROI的追求** A-F-D分离方案帮助云厂商精打细算[3] * **未来云厂商可能继续解耦趋势** 将计算、存储、网络拆开售卖 例如单独购买存储柜存放KVCache 或购买计算柜运行FFN[4][5] * **芯片职能将越来越细分** 针对搜索广告推荐、LLM推理、Agent推理、多模态推理等不同场景推出专用芯片[5] * **能效(PUE)成为关键竞争要素** 算力端将全面普及液冷技术 更低的PUE能在涨价潮中获得更高利润率[6] **其他重要内容** * **云厂商是最大客户** 在Claudecode、Openclaw等应用出现后 需求持续爆发[2] * **需求指数增长的具体驱动** Agent/多模态算力需求是chatbot需求乘以多轮调用次数和(图像像素数*视频帧数)因子[3]
GTC大会新架构与核心技术要点解读
2026-03-22 22:35
行业与公司 * 本次电话会议纪要主要围绕英伟达在GTC 2026大会上发布的新一代产品与技术展开,涉及**人工智能(AI)计算硬件行业**,核心是**英伟达公司**[1][2][3] * 会议详细解读了其新发布的**Feynman架构**、**Rubin/Rubin Art GPU**、**VeraWell CPU**、**LPU**等产品,并讨论了相关**散热**、**互联**、**存储**技术及对**下游产业链(如ODM、PCB、光模块、HBM供应商)** 的影响[1][2][3][4][5][6][7][8][9] 核心产品性能与架构提升 * **Feynman架构**:采用**1.6纳米**制程,通过**CPO交换机**互联,旨在解决大规模AIG集群柜间互联瓶颈与能耗问题,实现的**带宽密度有近10倍的提升**[1][2] * **Rubin GPU**:推理速度达**50 PetaFLOPS**,性能约为前代**Blackwell的12.5倍**[2] * **Rubin Art 机柜**:如NVR72架构的机架性能约为**GB200的14倍**;Rubin Art 576整体推理性能相比Blackwell架构提升约**14倍**[2] * **VeraWell CPU**:效率相比英特尔和AMD最新的CPU高出**近两倍**,核心数翻倍至**88核**[1][3][4] * **LPU (推理处理单元)**:与Rubin GPU搭配用于推理场景时,能使整体推理性能提升约**35倍**,吞吐量最多可提升**50倍**[1][6] * **成本与效率**:新一代产品在算力大幅提升的同时,**Token成本相较前一代产品降低了近90%**;LPU采用SRAM/DDR5替代HBM,可使单位Token成本降低**至少80%**[1][3][6][11] 技术趋势与行业影响 * **模块化与集成化**:新产品(如NV Switch和Rubin节点)高度模块化,服务器组装时间从原先的**两天缩短至约两个小时**,这**削弱了ODM厂商的自主空间**,其业务重心由组件制造转向整机柜集成[1][3][4][5] * **散热技术**:散热方案全面转向**100%液冷**,采用**45度温水**进行冷却,以降低电力成本[1][3][4][5] * **互联技术**:呈现**铜光并存**趋势。机柜内未来**3-4年仍以铜互联为主**(224G/448G);**CPO**渗透预计**2027年大规模交付**,**2028-2029年成熟部署**,成本是主要考量[1][5][9] * **软件框架**:**Nemo Cloud**框架相比OpenAI框架,在**安全性**(内部开源)和与英伟达GPU平台的**兼容性与效率**上具备优势[4] * **AI应用**:**Agent AI**的应用被视为开启智能体的新拐点,预计将成为未来关注焦点[3] 供应链与硬件需求变化 * **HBM存储**: * Ruby架构采用**HBM4**,Ruby Arch将采用**HBM4E**,存储容量约**288GB**[7][8] * 海力士是HBM4量产进度最快的厂商,其**12层HBM4**产品已于**2026年第二季度**实现量产;HBM4E预计**2027年第二季度**推出[1][8] * 三星整体交付进度较慢,预计**2026年第三季度**左右进行验证和交付;美光进度更晚,大批量交付可能要到**2026年第三或第四季度**[8] * HBM市场存在**接近20%的结构性短缺**,因其占用了约**30%至40%** 的原有DRAM产能[1][8] * **PCB(印制电路板)**:LPU的应用对服务器硬件提出更高要求,其所使用的PCB板层数会显著增加,预计将达到**40至50层**,提升了PCB的价值量[1][6] * **光模块**:CPO等新技术的发展可能影响传统光模块市场,未来的800G和1.6T硅光模块可能向**可插拔形式**演进,传统带DSP功能的光模块价值量可能受到压缩[9] 其他重要信息 * **Spectrum交换机**:用于超大规模集群互联,关键技术包括自适应路由和通过AI控制网络拥塞,实现算力均衡分配[7] * **替代存储方案**:业界探索使用**PCIe 6.0**带宽将**DDR5**内存作为缓存扩展的策略,以应对部分推理场景并降低成本,但无法满足训练场景[8] * **国内供应链**:在HBM领域,海外厂商仍占据主导地位,国内厂商进展尚不顺利[8] * **LPU部署形式**:LPU目前采用**风冷**即可,短期内与GPU集成在同一模块的可能性不大,分体式部署有利于降低故障维修成本[6]
推理利器LPX问世-Agent-AI-太空算力架构迎革新
2026-03-22 22:35
电话会议纪要关键要点总结 一、涉及的行业与公司 * **行业**:人工智能(AI)基础设施产业链,具体包括**PCB(印刷电路板)、光模块/光通信、液冷散热、太空算力(天基计算)** [1][2][3][4][5][6][7][8] * **公司/产品**: * **芯片/硬件**:英伟达(NVIDIA,提及Blackwell、Rubin、Rubin Ultra、Femto架构,GB200/GB300,LPU,H100)、谷歌(TPU)、Groq(LPU)、Meta(MTIA ASIC)、华为(昇腾卡)[1][2][3][4][7] * **太空算力项目**:海外星云公司(音译)、国内三体计算星座(浙江实验室、国星宇航等)、北京太空数据中心[7][8] * **国内芯片企业**:复旦微电、成都华微、紫光国微(提及抗辐照FPGA/CPU)[12] 二、PCB领域的核心增量与变化 * **增量驱动力**:英伟达**Rubin架构**机柜内部转向“无缆化”设计,用PCB(如compute trace、way trace及midplane互连)替代原有的铜缆方案[2] * **关键产品**:**中背板(Midplane/铜背板)** 用于连接计算节点和交换刀片,层数预计达**70-120层**,将在**2027-2028年**加速放量[1][2] * **新需求来源**:**Groq 3 LPU**推理机架采用Scale Up架构,每8张LPU构成一个tray,对应一张高多层PCB(M9加Q5级别材料),成为**2027-2028年**市场规模提升的重要驱动力[2] 三、光模块与CPO(共封装光学)的预期与趋势 * **市场预期修复**:GTC 2026显示,在**Scale-out**(横向扩展)网络场景中,仍以**可插拔光模块**为主,未强调CPO的快速迭代,这有利于板块估值修复[1][2][3] * **CPO渗透方向**:CPO的渗透率快速提升主要集中于**Scale-up**(纵向扩展)网络,例如从Rubin架构的Spectre 6 102T CPO,到Femto架构的Spectre 7 204T CPO和NVLink 8 CPO[3] * **行业前景**:光通信是英伟达机柜代际迭代的关键增量,可插拔光模块和CPO在Scale-up的渗透前景依然被看好[3] 四、液冷技术的发展趋势与市场需求 * **芯片级驱动力**:芯片功耗持续攀升,**Rubin Ultra功耗将超过3,000W**,驱动芯片级冷板价值量提升,技术向微通道、金刚石等高导热材料演进[1][3] * **系统级演进**: * 液冷应用范围从GPU泛化至**LPU、CPU、存储及网络设备(如CPO)** 等所有高热密度部件[4] * 散热方案正从**风液混合(液冷占70%)向100%全液冷演进**,剩余的30%边际增量覆盖DPU、ASIC、交换芯片及可插拔光模块的cage等[4] * 为保证可靠性采用冗余设计(如双水泵、双管路),实际液冷需求增量将**超过30%**[4] * **市场空间与政策**: * **Groq 3 LPU**的256节点机柜液冷价值量(近400块冷板、500多对快接头和60多条Mini Manifold)不逊于GPU机柜[1][4] * 国内**中国移动**开启**2026-2027年**首次AI超算节点集采,涉及**6,208张**华为昇腾卡,带动液冷需求[4] * 工信部等政策目标到**2028年**,通信领域新增服务器能效二级以上设备占比超**80%**,支持液冷应用[4] * 预计**2026年下半年**,随着英伟达、国内厂商及各类ASIC芯片放量,液冷需求将迎来增长[1][4] 五、太空算力(天基计算)的发展现状与规划 * **发展阶段**:从端侧智能(遥感卫星搭载AI芯片在轨处理数据)逐步发展到算力卫星,最终目标是建设集中式太空数据中心[5][6][8] * **海外进展**:**星云公司**于2025年11月首次将搭载英伟达**H100**芯片的卫星送入太空,2026年3月提交总计约**8.8万颗**卫星的星座申请[7] * **国内进展**: * **三体计算星座**:2025年5月发射首批**12颗**计算卫星,单星算力**700多TFLOPS**,搭载**100G**星间激光通信链路[8] * 短期目标(2027年前):发射**100颗**卫星,形成亚太算力服务能力[8] * 远期目标(2030年):发射**1,000颗**卫星,总功率**100兆瓦**[1][8] * **北京太空数据中心**:规划在太阳同步轨道建设集中式数据中心[8] * 近期目标(2027年前):一期算力星座总功率**200千瓦**[8] * 远期目标(2035年前):单座功率**1吉瓦(GW)**,达到**百万卡级别**算力规模[1][8] * 第一代试验星“晨光一号”计划于**2026年**择机发射[8] 六、太空算力的成本、挑战与技术路径 * **成本构成**:目前每吉瓦太空算力的投资额约为地面数据中心的**2至3倍以上**[6] * **降本路径**: * 短期:依赖大推力可回收火箭(如朱雀)、增加发射工位、利用商业火箭[6] * 长期:卫星规模化、自动化生产;核心载荷及芯片器件成本下降[6] * **核心挑战**:对芯片环节存在**成本、产品迭代速度和使用寿命**三大痛点[9] * **技术路线**: * **海外**:采用极致的降本方案,使用**工业级芯片**替代宇航级芯片,牺牲卫星寿命[9] * **国内(预期)**:采取综合路线,在保证高可靠性和长寿命的基础上寻求成本平衡[9] * **芯片核心要求**: * **高可靠性**:需满足军规级测试标准、极宽工作温度范围和高寿命要求(例如以往高轨卫星用CPU/FPGA单颗价格可达**数百万美元**)[10] * **强抗辐照能力**:应对宇宙射线带来的总剂量效应和单粒子效应[10] * **性能表现**:谷歌测试显示,商用工业级AI芯片在低轨卫星环境中平均可承受约**5年**的辐射总量,接近其使用寿命极限[10] 七、太空算力产业链的高壁垒与投资价值环节 * **激光通信环节**:星间激光通信是实现高速数据传输、减少对地面站依赖的关键,目前速率可达**100G**,用于星间及星与飞机间通信[11] * **高壁垒芯片环节**: * **抗辐照FPGA**和**抗辐照CPU**具备高技术壁垒[1][12] * 国内市场格局较好,产品价格下降幅度相对可控[12] * 相关企业(如复旦微电、成都华微、紫光国微)正推出兼顾降本与维持高毛利率的解决方案[12] 八、其他重要信息 * **推理拐点**:GTC 2026大会揭示了**推理拐点**的到来,预计英伟达旗舰芯片销售额到**2027年**将达到至少**1万亿美元**[2] * **AI工厂竞争**:AI基础设施竞争已扩展到包含CPU、LPU、存储和网络的整个**AI factory**系统级竞争,衡量标准转向“**单瓦每Token吞吐率**”[4]
电子行业研究:美光业绩指引存储需求继续强劲,GTC再掀AI硬件浪潮
国金证券· 2026-03-22 20:24
行业投资评级与核心观点 - 报告对AI及电子板块整体持积极看法,核心推荐方向为AI覆铜板/PCB、核心算力硬件、半导体设备及苹果产业链 [3][26] - 报告核心观点认为,AI需求持续强劲,从存储芯片、PCB到半导体设备等多个环节均呈现“价升量增”趋势,行业景气度上行 [1][3][26] 行业整体趋势与宏观数据 - 美光FY26Q2业绩超预期,营收238.6亿美元,同比+196%,环比+75%;GAAP净利润137.8亿美元,同比+771%,环比+163% [1] - 美光指引FY26Q3营收为335±7.5亿美元,显示存储需求继续强劲 [1] - DRAM与NAND价格持续上行:FY26Q2 DRAM价格环比上涨约65%,NAND价格环比上涨75~80% [1] - 数据中心存储需求快速增长,预计2026年底数据中心DRAM与NAND位元需求将超过行业总位元市场的50% [1] - 博通指引2027年AI定制芯片业务营收将达到1000亿美元,ASIC崛起将进一步拉动存储需求 [1] - 英伟达CEO黄仁勋表示2027年AI硬件需求至少有1万亿美元 [1] - 近期电子行业周涨跌幅为-2.84%,但细分板块中分立器件、半导体设备、印制电路板表现相对较好 [35][38] 细分行业核心观点与景气度 消费电子 - 行业景气指标:稳健向上 [3] - AI正从技术探索迈向大规模生产力赋能,大模型调用量高速增长 [4] - 看好AI手机,重点看好苹果产业链,算力与运行内存提升是主逻辑,带动PCB、散热、电池等组件迭代 [4] - 多家厂商发布AI智能眼镜,关注Meta、苹果、微软等大厂布局 [4] - AI端侧应用产品加速,覆盖类AIPin、智能桌面、智能家居等,为可穿戴硬件带来新机遇 [4] PCB与覆铜板(CCL) - 行业景气指标:加速向上 [3] - 产业链保持高景气度,主因汽车、工控政策补贴及AI大批量放量 [5] - 英伟达GTC 2026大会带来新增量:正交背板在Kyber架构全面采用,Rubin架构的NVL144开始使用;LPU在Rubin架构开始使用;新推出CPU机柜 [1][26] - 正交背板是PCB在AI领域的第三次重大技术创新,层数高、带宽大、附加值高,打开行业空间 [1] - AI强劲需求带动PCB价量齐升,多家AI-PCB公司订单强劲,满产满销,正在大力扩产 [3][26] - AI覆铜板需求旺盛,由于海外扩产缓慢,大陆覆铜板龙头厂商有望积极受益 [3][26] - 台系产业链月度营收数据显示行业增长:CCL月度营收同比增速最高接近50%,PCB月度营收同比增速最高接近40% [15][17] 半导体芯片(存储、IC设计) - 行业景气指标:稳健向上 [3] - 存储板块持续看好:供给端减产效应显现,大厂开启涨价;需求端云计算大厂Capex启动,企业级存储与消费电子补库需求加强 [20][22] - TrendForce上修2025年第四季一般型DRAM价格预估涨幅至18-23% [20][22] - 美光FY26Q2 DRAM营收188亿美元,同比+207%;NAND营收50亿美元,同比+169% [1] - 三星电子将在2025年下半年独家向OpenAI供应高达8亿Gb的HBM4,占其全年HBM总产量计划(超110亿Gb)的7% [1] - 看好谷歌、亚马逊、Meta、OpenAI及微软的ASIC数量在2026-2027年迎来爆发式增长 [1][26] 半导体代工/设备/材料/零部件 - 行业景气指标:稳健向上 [3] - 半导体产业链逆全球化,设备出口管制加强,自主可控逻辑持续,国产化加速 [23] - 封测板块景气度稳健向上,先进封装需求旺盛,受寒武纪、华为昇腾等AI算力芯片驱动,HBM产能紧缺 [23] - 半导体设备板块:AI大模型驱动存储技术向3D化演进,叠加国内存储大厂扩产,国产设备产业链迎增长机遇 [24] - 2025年前三季度,国内八家半导体设备龙头公司合计营收同比增长37.3%,归母净利润同比增长23.9% [24] 元件(被动元件、面板) - 被动元件行业景气指标:稳健向上 [3] - 26Q1淡季不淡,有望形成结构性需求旺盛+成本增加的顺价涨价 [18] - AI端侧升级带来需求:AI手机单机电感用量预计增长,价格提升;MLCC手机用量增加,均价提升 [18] - WoA笔电(ARM架构)中,1u以上MLCC用量占比近八成,单台MLCC总价大幅提至5.5~6.5美元 [18] - 面板行业:LCD面板价格报涨,3月电视与显示器面板涨幅明确,笔电面板跌势收敛 [18] - OLED看好上游国产化机会,国内8.6代线规划带动上游设备材料需求增长 [19] 重点公司观点摘要 - **胜宏科技**:预计2025年净利润41.6亿元-45.6亿元,同比增长260.35%-295%,受益于AI算力与数据中心需求 [27] - **北方华创**:半导体装备产品技术领先,平台化布局完善,覆盖刻蚀、薄膜沉积等核心工艺 [28] - **中微公司**:高端刻蚀设备增长,推出多款新产品加速向平台化转型,并计划收购杭州众硅股权 [28][29] - **兆易创新**:25Q3毛利率环比改善3.71个百分点,净利率改善3.74个百分点,看好其“国产替代+定制化存储”逻辑 [31] - **领益智造**:海外交付能力强,布局散热、折叠屏、AR/AI眼镜等关键组件,筹划发行H股 [32] - **三环集团**:MLCC产品向高容化、微型化发展,AI需求带动SOFC业务增长 [33] - **江丰电子**:积极布局静电吸盘业务以应对国产化替代的迫切需求,计划定增募资不超过19.48亿元 [34] - **东睦股份**:SMC业务拓展AI服务器相关材料,25H1算力相关金属软磁SMC销售收入约1.0542亿元 [30]