Workflow
HBM内存
icon
搜索文档
踏空芯片狂欢?帮你找到下一场AI盛宴
Wind万得· 2026-05-09 14:24
美股芯片板块的集体重估 - 市场正在对美股芯片板块进行一场近乎史诗级的集体重估,AI基础设施链条上的每一个环节,如英伟达、博通、台积电、美光等,都被资金疯狂追逐[1] - 华尔街的定价逻辑已从“互联网平台估值逻辑”转变为寻找AI时代真正的“卖铲人”[1] - 当市场情绪狂热时,信息噪音巨大,真正的机会容易被忽视,此时拉开差距的关键在于提前理解“资金下一步会流向哪里”[1][2][3] AI投资进入全球产业链联动时代 - AI投资已从“单点公司逻辑”全面进入“全球产业链联动时代”[5] - 2026年4月29-30日,Alphabet、Amazon、Microsoft、Meta四巨头罕见同一天发布Q1财报,并大幅上调2026年全年资本支出(CapEx)指引[5] - Amazon:维持2000亿美元,主要投向AWS、AI芯片、数据中心[5] - Microsoft:上调至约1900亿美元,较此前预期大幅增加,用于Azure AI扩建和OpenAI支持[6] - Alphabet:上调至1800-1900亿美元,几乎是2025年的两倍[6] - Meta:上调至1250-1450亿美元,此前为1150-1350亿美元[7] - 四巨头2026年合计CapEx高达6500-7250亿美元,同比增长约60-77%,其中绝大部分直接流向AI基础设施[7] - 四巨头Q1单季度已投入超1300亿美元,创下纪录[7] 资本支出上调引发的市场连锁反应 - 美国科技巨头集体上调CapEx,释放了明确的AI支出信号,驱动了全球芯片及产业链股票的上涨[8][10] - 例如,SK Hynix股价单日大涨12-13%,创纪录高点,直接归因于此信号[8] - AMD在5月6日股价狂飙18.64%,年内已涨超112%;Intel在5月8日涨近14%;美光、SanDisk等内存股也接连数日连续大涨[9] - 费城半导体指数(SOX)年初至今多次创历史新高,5月以来涨超12%,年内累计涨幅已超66%[10] - 韩国三星电子市值突破1万亿美元,SK Hynix等存储芯片股也大放异彩[10] AI行情的产业链传导效应 - 当前AI行情的核心驱动是巨头CapEx的集体确认,市场看到“钱要砸下来了”,资金从“预期”转向“兑现”[10] - 行情结构是全球产业链联动,一家公司财报超预期,其影响会传导至GPU供应商、HBM内存厂、光模块公司、电力设备商、液冷企业、数据中心REITs,甚至上游玻璃、铜缆、化工材料供应商等看似不相关的标的[11] - 这意味着AI数据中心需求可能带动一系列广泛产业的股价变动[11] AI投研工具的价值与应用 - 普通投资者对AI工具的理解多停留在总结新闻、写研报、翻译财报等基础功能,这未能发挥其真正价值[11][16] - 高阶的用法是让AI构建“市场认知系统”,帮助投资者提前看见资金逻辑[14][16] - 例如,AI工具可以快速搭建财务模型,进行敏感性分析。如基于公开客户结构数据,计算若北美四大云厂2026年CapEx同比再增30%,中际旭创、新易盛、天孚通信等公司的收入弹性[12] - AI投研系统的核心价值在于将碎片信息自动拼接成完整逻辑链,帮助专业投资者看到下一阶段的资金迁移路线图,而普通投资者可能只看到“新闻”[14] - 这类系统可以持续扫描全球财经媒体、财报关键词变化、高频产业词、机构关注度变化、资本开支方向,从而提前发现哪些概念正在从“小众叙事”变成“主线交易”[17] - 未来市场的稀缺能力不再是“获取信息”,而是建立“认知系统优势”[17] - 一个先进的AI投研系统能直接接入金融数据、调用多种分析模型、24小时运转,将投资者从“信息搬运工”的角色中解放出来,使其专注于判断[17]
最悲观的芯片分析师:发布预测
半导体芯闻· 2026-05-06 18:25
文章核心观点 - 半导体行业正经历由人工智能基础设施投资驱动的历史性增长,但增长模式异常且存在结构性风险 [1][2][6] - 行业增长主要由平均售价(ASP)上涨驱动,而非销量增长,这种模式在历史上并不常见 [1][6] - 多位行业分析师预测市场将在2026年达到或超过1万亿美元规模,但高增长背后存在资本支出过高、需求可能回调以及“内存通胀”挤压其他领域等风险 [1][2][4][7][8] 行业整体表现与预测 - **2025年业绩创纪录**:全球半导体年收入达到7917亿美元,同比增长25.6% [2] - **2026年预测普遍乐观**:多家机构预测行业收入将突破1万亿美元,其中SIA预测约1万亿美元 [2],Omdia预测增长62.7% [4],Gartner预测超过1.3万亿美元(增长64%) [7],IDC预测1.29万亿美元(同比增长52.8%) [9] - **增长驱动力**:增长主要得益于人工智能领域的需求以及几乎所有类型微电子产品价格的上涨 [2][8] 增长动力与异常现象 - **主要驱动力:人工智能基础设施**:数据中心对AI加速器(如GPU)、HBM内存、网络和存储设备的投资是核心增长引擎 [2][5][8] - **增长模式异常**:市场增长由平均售价驱动,而非销量增长,这与通常情况相反 [1] - **季度表现强劲**:2025年第一季度销售额环比增长25%,被描述为行业历史上第一季度相对于第四季度的最强劲增长 [1] - **资本支出高企**:行业资本支出远高于“安全港”趋势线,其中中国2024年资本支出占全球总额的37%,是基于市场份额合理金额的三倍 [1] 细分市场分析 - **产品类别**: - 逻辑器件:2025年营收达3019亿美元,同比增长39.9%,市场份额最大 [3] - 存储器产品:2025年销售额达2231亿美元,同比增长34.8%,是第二大类别 [3] - **区域市场**: - 亚太地区:2025年销售额增长45%,增幅最显著,得益于台湾地区生产先进AI处理器、韩国和新加坡生产HBM内存 [3] - 美洲地区:增长30.5% [3] - 中国:增长17.3% [3] - 欧洲:小幅增长6.3% [3] - 日本:销售额同比下降4.7%,是唯一出现下滑的主要地区 [3] 存储器市场动态 - **市场规模与增长**: - IDC预测,存储器总收入将从2025年的2260亿美元增长至2026年的5947亿美元,2027年达7904亿美元 [11] - DRAM:2026年营收预计达4186亿美元,同比增长177% [9][11];Omdia预计其市场规模将增长近一倍 [4] - NAND闪存:2026年收入预计达1741亿美元,同比增长138.5% [12];Omdia预计其市场规模可能增长四倍 [4] - **价格通胀**:Gartner预计2026年DRAM和NAND闪存年价格将分别上涨125%和234% [7] - **核心驱动力与瓶颈**: - 需求主要由超大规模数据中心对高带宽存储器(HBM)和DDR的需求驱动 [9][11] - HBM已成为AI加速器供应链的主要瓶颈,大部分产能已预订至2026年,部分至2027年 [12] - HBM生产依赖先进封装,每比特成本比标准DRAM高出数倍 [12] 人工智能半导体的角色与影响 - **市场份额**:预计到2026年,人工智能半导体将占半导体总收入的约30% [7][8] - **数据中心投资**:超大规模数据中心资本支出预计在2026年同比增长70%,达到约6000亿美元 [10] - **数据中心半导体市场**:IDC预测,2026年数据中心半导体收入将达4771亿美元,到2030年将达8432亿美元,几乎占整个市场的一半 [10] - **增长可持续性因素**:计算强度持续上升、推理需求不断累积、AI正走出数据中心(向边缘和客户端设备扩散) [11] 其他终端市场状况 - **计算与数据存储**:预计2026年同比增长90%,超过7000亿美元,受服务器和内存密集型应用需求及内存芯片价格上涨推动 [5] - **移动领域**:2026年半导体收入预计下降至898亿美元,主要受存储器成本在物料清单(BOM)中占比增大带来的成本压力影响,而非消费者需求问题 [13] - **汽车行业**:2026年短期市场将出现疲软,受关税、利率和能源价格等宏观因素抑制,长期前景依然强劲 [13] - **物联网**:2026年市场规模预计达1366亿美元,短期面临库存消化压力,但边缘AI正在创造新的高价值需求类别 [13] - **非存储/非数据中心业务**:2026年收入预计达4063亿美元,多个市场面临利润率压力、供应分配挑战和宏观经济逆风 [12] 风险与未来展望 - **增长预测分歧与风险提示**:有观点认为到2030年达1.6万亿美元、2035年达2.4万亿美元的预测“根本不可能”,市场将会回调,问题在于“每个人都想争第一” [1] - **投资回报不确定性**:AI需要一个能够带来收益的“杀手级应用”,目前一切取决于投资,而投资需要回报 [1] - **“内存通胀”的挤出效应**:内存价格暴涨将摧毁或至少延缓非人工智能领域的需求直至2028年 [7][8] - **供应缓解时间**:存储器供应方面的显著缓解恐怕要等到2027年才能实现 [5] - **长期预测**:IDC基本预测到2030年,半导体收入将达到1.75万亿美元 [13]
博通的3D封装明牌
半导体行业观察· 2026-05-06 09:38
文章核心观点 - 行业正从2D、2.5D向3D及更先进的3.5D芯片堆叠技术演进,以解决高性能计算和人工智能系统中计算引擎互连的延迟、功耗和集成度问题 [1][2][6] - 博通公司开发的3.5D XDSiP(超大尺寸系统封装)技术代表了这一趋势的前沿,通过将多个计算芯片和HBM内存堆叠在单个插槽内,能显著提升信号密度、降低功耗和延迟 [8][11][16] - 该技术已获得多家行业领先公司的采用,预计将在未来几年内实现商业化出货,预示着芯片封装技术将进入新的发展阶段 [11][16] 技术演进与行业驱动力 - 芯片设计正从二维走向三维堆叠,以应对组件延迟和电路集成度挑战,2.5D堆叠(如使用中介层连接GPU与HBM)和3D堆叠(如用于CPU/GPU缓存)已成为行业实践 [1] - 将多个计算引擎(如GPU/XPU)集成在主板上的传统方式,其片外连接每比特功耗高达3到5皮焦耳,存在显著弊端 [2] - 若将包含四个计算引擎的系统简化为一个插槽,并使用芯片间互连,每比特功耗可降至低于0.2皮焦耳,同时降低延迟,这是推动3D堆叠技术的核心动力 [6] - 无论复杂性和成本如何,3D堆叠技术势在必行,目标是制造出性能最高的计算单元插槽 [6][8] 博通3.5D XDSiP技术详解 - 博通3.5D XDSiP技术典型设计包含多个堆叠的计算芯片和多个HBM内存堆叠,最初版本最多可容纳12个HBM堆叠,且数量在持续提升 [8] - 该技术采用背对背连接方式,当前信号密度约为每平方毫米1500个信号 [14] - 采用3.5D XDSiP技术后,两个芯片之间的信号密度几乎提高一个数量级,达到每平方毫米14,000个信号 [16] - 该技术与AMD和台积电开发的“面对面”3D SoIC方法不同,博通已研发此技术超过五年 [12] - 技术实现依赖于芯片金属层对齐及专用粘合剂,博通与台积电正合作开发此类粘合剂 [14] 行业应用与采用情况 - 富士通在其未来的“Monaka”Arm服务器CPU(144核,混合2纳米和5纳米工艺)设计中采用了博通的3.5D XDSiP技术,计划将一个2纳米计算芯片堆叠在5纳米计算芯片之上,预计2027年发布 [8][11] - 除富士通外,另有六家公司在定制AI XPU设计中采用了3.5D XDSiP技术 [11] - 这六家XPU制造商中包括亚马逊网络服务(AWS)的Trainium4(预计2024年底发布,可能2027年大规模部署)和Meta Platforms的MTIA 500(预计2027年发布) [11] - 博通预计,这六款产品中至少有一款将于2026年下半年出货 [16] - 采用该技术的客户策略是确保顶层芯片采用最先进工艺节点(如3纳米、2纳米甚至1.4纳米)以实现最高计算性能,并将高性能计算芯片置于顶层以利散热,将SRAM、低活动计算芯片和互连芯片置于底层 [11] 相关产品与技术策略 - 谷歌在其最新的TPU 8 XPU中采用HBM3E内存而非更新的HBM4,SambaNova Systems在其SN50 RDU中采用HBM2E内存,推测部分XPU厂商希望通过使用成本更低的HBM内存并借助3.5D等堆叠技术来获取容量和带宽,以推迟HBM架构更新 [8] - 博通3.5D XDSiP技术支持客户混合使用不同工艺节点的芯片,例如将2纳米芯片堆叠在3纳米芯片之上,提供了设计灵活性 [11]