半导体行业观察
搜索文档
深耕中国四十年,德州仪器的底气
半导体行业观察· 2026-02-11 09:27
公司市场地位与战略 - 公司是模拟芯片行业绝对龙头,拥有广泛的开发者基础、庞大用户群体、多样化参考设计以及丰富且配置多样化的料号,能随时满足几乎所有需求,这是其竞争对手难以企及的[1] - 自1986年进入中国市场以来,公司成为中国产业发展的可靠支持者,并将一如既往地支持中国客户,中国市场始终是公司重要的战略市场[1] - 公司拥有极具竞争力的80000+产品、10万+客户和自有的晶圆厂,这是其在中国市场保持竞争力的重要基础[5] 公司在中国的核心战略 - 听取客户需求进行创新:基于中国客户需求做产品创新,解决更多问题[3] - 提供可扩展的产品组合:提供从低端到高端的可扩展产品,满足客户不同需求,同时最大程度兼容软件,使客户快速开发[3] - 提供生产制造能力:利用强大的制造能力,确保客户不仅买得到产品,还能获得具备成本竞争力的产品[3] 创新与产品迭代 - 中国市场的创新速度非常快、有很强的竞争力、非常开放且接受度非常高,公司顺应客户需求,增加研发投资,加快了产品迭代速度,提升了执行效率和执行速度[5] - 没有单一解决方案能够应对所有操作挑战,公司不断为特定应用开发专用的产品,这种方法需要与客户建立直接且持续的联系[5] - 随着产品迭代创新速度加快和Time to Market周期缩短,单一器件越来越难满足客户需求,而拥有广泛产品线的公司能打造出面向多产品、多场景的可扩展解决方案[6] 生产制造优势 - 公司大举转向自建工厂,初衷之一是保障供应,拥有本土产能可以更好地响应中国客户的需求,以应对突发状况[7] - 工厂不仅承担制造职能,还能通过优化封装技术、工艺流程等制造端创新,进一步提升产品性能、降低生产成本[7] - 同时掌控设计能力和生产制造能力,能形成持续优化的闭环,通过流程、封装及配送方案的迭代缩短交付周期,并将制造端的创新快速反哺到产品设计中,为客户提供兼具性能优势与成本竞争力的产品,这种设计与制造深度融合的垂直整合制造模式是公司的重要优势[7] 人工智能时代的战略布局 - 公司过去几十年一直坚持在底层技术深耕,在模拟芯片和嵌入式处理器市场打下了夯实的基础,随着全球迈入人工智能时代,公司在“守正”的同时也“出奇”,力争成为产业的最强赋能者[12] - AI是工具,用来解决问题,例如在汽车领域解决安全和自动化问题,在工业领域解决各类问题[12] - 面向边缘AI市场,公司提供了从算力较低的MCU再到算力高达1200 TOPS的TDA5等产品,用可扩展的边缘计算能力,满足从一般工业应用到智能汽车ADAS系统、无人驾驶系统等场景的算力需求[12] 边缘AI产品组合 - 在CES 2026上,公司带来了专为高性能计算打造的实时智能决策SoC——TDA5系列,该系列SoC可提供10 TOPS至1200 TOPS运算的边缘人工智能算力,能效比超24 TOPS/W,支持芯粒设计,采用标准UCIe接口,具备出色的可扩展性,能让设计人员基于单一产品组合实现多种功能配置,并且支持最高L3级自动驾驶[13] - 2024年年底升级的C2000TM系列是公司面向边缘AI市场推出的一系列重要产品,新出的F29内核产品性能是传统产品的2倍多,在F28P55X系列产品上,公司首次在C2000系列中引入NPU,将其性能进一步提升,使其在太阳能及供电系统中的电弧检测应用中展现出显著优势[13][14] - 除了做高性能产品外,公司还会拓展更具性价比、低成本的产品系列,将C2000推到更多应用场景中去[14] AI领域产品策略 - 面向AI市场,公司不是为了某一个特定应用去设计,而是提供可扩展的产品系列,让客户可以根据不同的应用需求找到合适的产品[15] - 一方面,通过提供可扩展的产品组合,满足从成本优化到高性能的需求;另一方面,提供工具和软件生态,运用公司的AI技术在不同应用解决不同的问题[15] - 公司认为AI才刚刚开始,AI将在更快速、更精准、更低功耗、更低成本方面切实帮助客户解决问题[15] 竞争与核心优势 - 公司拥抱竞争,认为竞争能让其变得更好[17] - 公司自己设计并生产产品,这种IDM模式让公司能很好地优化成本并把控质量[17] - 公司提供的是全系列产品,提供覆盖从入门级到高端高性能的完整产品组合[17]
一系列超强芯片,即将揭秘
半导体行业观察· 2026-02-11 09:27
文章核心观点 文章介绍了将于2026年国际固态电路会议(ISSCC)上展示的一系列前沿半导体技术成果,重点聚焦于人工智能(AI)计算芯片、高密度与高速存储器以及先进图像传感器三大领域,揭示了行业在提升算力、能效、存储密度和传感能力方面的最新进展 [2][3][4][5][6][7][8][9][10][11][12][13] AI计算与加速芯片 - **AMD Instinct MI350系列AI GPU**:采用CDNA4架构,由4个3nm计算芯片与1个6nm I/O芯片水平排列构成,与HBM内存封装在一起,理论峰值性能相比上一代提升1.9倍,HBM带宽和容量(相同封装面积下)均提升1.5倍 [2] - **IBM Spyre AI加速器**:专为推理优化,采用5nm工艺,芯片面积330平方毫米,包含260亿个晶体管,吞吐量比最新GPU高32%,能效是后者的2到3倍 [3] - **联发科MADiC生成式扩散加速器**:采用3nm工艺,芯片面积仅0.338平方毫米,运行扩散卷积神经网络时性能达7.4 TOPS/mm²和17.4 TOPS/W,专为边缘设备图像编辑设计 [4] - **NVIDIA ALPhA-Vision实时图像处理器**:采用16nm工艺,芯片面积4.20平方毫米,人脸检测延迟仅787微秒,功耗4.6毫瓦(60帧/秒),准确率99.3% [5] - **韩国Rebellions AI推理子系统**:采用4nm工艺NPU与HBM3E,通过UCIe协议实现芯片间连接(速度超16Gbps),在Llama 3.3(700亿参数)模型上处理单个2k/2k序列时性能达56.8 TPS(每秒词元数) [3] - **意法半导体STM32N6系列微控制器**:集成Arm Cortex-M55 CPU与自研Neural-ART NPU,采用16nm工艺,1GHz NPU性能达600 GOPS和3 TOPS/W,面向边缘AI应用 [13] - **韩国Mobilint NPU内核**:通过软硬件协同设计,本地部署加速器“ARIES”集成两个4核NPU集群,采用三星14nm工艺,芯片面积181平方毫米;设备端加速器“REGULUS”为单核,采用台积电12nm工艺,芯片面积50平方毫米 [13] - **微软MAIA AI加速器**:将讨论约800平方毫米光罩尺寸的封装技术、750瓦功率的供电散热机制、物理设计及验证方法 [13] 高密度与高速存储器 - **闪迪与铠侠3D NAND闪存**:存储密度高达37.6 Gbit/mm²,容量达2 Tbit(256 GB),字线层数332层,采用4bit/单元(QLC)技术,写入速度85 MB/s,读取延迟65 μs [6] - **三星HBM4 DRAM模块**:容量36GB(288Gbit),数据传输速率高达3.3 TB/s,由12颗24Gbit第六代10nm工艺核心芯片堆叠,通过TSV连接,I/O数据线增至2048条(为HBM3E两倍),底层逻辑芯片采用4nm FinFET工艺,每通道数据传输速率13.2 Gbps [7] - **SK海力士LPDDR6 SDRAM**:容量16Gbit,每I/O引脚数据传输速率达14.4 Gbps,采用1γ代工艺,具备独特低功耗模式等关键技术 [7] - **三星LPDDR6 SDRAM**:容量16Gbit,每I/O引脚数据传输速率达12.8 Gbps,支持12DQ子通道宽NRZ数据I/O [8] - **SK海力士GDDR7 DRAM**:容量24Gbit,每I/O引脚数据传输速率高达48 Gbps,面向中端AI推理应用 [8] 先进图像传感器 - **意法半导体激光雷达接收器**:视场角54°×42°,分辨率52×42通道,帧率60 fps,采用3D堆叠和65/40nm CMOS工艺,集成220×198背照式SPAD阵列,功耗153mW,测量距离达9.6米,误差小于1厘米 [9] - **索尼锗硅SPAD传感器阵列**:像素尺寸400x300,像素间距10 μm,专为AR/VR设计,室温工作,30 fps下功耗仅26 mW,在1300 nm波长下光子探测效率5.1%,测量距离10米时误差小于3厘米 [10] - **三星全局快门CMOS图像传感器**:1200万像素等效,像素间距1.5μm,采用2x2阵列四像素共享ADC,噪声极低,平均固定模式噪声0.65e-rms,随机噪声1.09e-rms [10][11] - **SmartSens Technology CMOS图像传感器**:像素数达2亿,像素间距0.61μm,采用40nm与22nm工艺芯片堆叠及背照式设计,支持60 fps的8K视频录制,转换增益275μV/e-,读出噪声0.7e- [11] 其他技术概述 - **NVIDIA GB10处理器**:用于桌面AI超级计算机DGX,包含20个Armv9.2核心并集成Blackwell架构iGPU芯片,两者均采用台积电3nm工艺,iGPU集成第五代Tensor核心和第四代RT核心,计算性能FP32模式31 TFLOPS,FP4模式1 PFLOPS [12]
DRAM危机,短期无解
半导体行业观察· 2026-02-11 09:27
文章核心观点 - 人工智能数据中心对高带宽内存的庞大需求正导致DRAM市场出现严重短缺和价格飙升,这种供需失衡源于DRAM行业固有的强周期性与AI基础设施超大规模建设的碰撞,预计新增产能和技术进步需要数年才能匹配需求,且价格可能长期保持高位 [2][8][17] 行业现状与供需矛盾 - 本季度DRAM价格已上涨80%至90%,主要受AI数据中心GPU对HBM的旺盛需求驱动,这挤占了其他用途的内存供应 [2] - DRAM行业具有强周期性,新建晶圆厂成本高达150亿美元甚至更多,且建设周期长达18个月以上,导致产能调整严重滞后于需求变化 [8] - 行业在2022-2023年经历衰退后,公司对扩大产能持谨慎态度,2024年和2025年大部分时间几乎没有新产能投资 [9] - 当前AI数据中心建设热潮与前期投资匮乏形成尖锐矛盾,全球有近2000个新建数据中心在规划或建设中,若全部建成将令全球数据中心供应量增长20% [12] 高带宽内存的技术与市场 - HBM是一种3D堆叠DRAM技术,通过堆叠多达12个超薄DRAM芯片并与GPU紧密集成,旨在突破AI计算中的“内存墙”瓶颈 [5][6] - HBM成本通常是其他类型内存的三倍,占GPU总成本的50%甚至更多 [6] - HBM在DRAM制造商收入中占比迅速提升,以美光为例,其HBM及云相关内存收入占比将从2023年的17%增至2025年的近50% [14] - HBM市场总规模预计将从2025年的350亿美元增长至2028年的1000亿美元,这一数字将超过2024年整个DRAM市场的规模 [14] 主要厂商动态与市场影响 - 英伟达是AI数据中心热潮的最大受益者,其数据中心业务收入从2019年第四季度的不足10亿美元飙升至2025财年第四季度的510亿美元 [12] - 最新的AI服务器GPU(如英伟达B300、AMD MI350)普遍使用8个或12个芯片的HBM,进一步推高HBM需求 [12] - 主要DRAM制造商(美光、三星、SK海力士)正在建设新晶圆厂,但投产时间多在2027年及以后,短期内无法缓解供应紧张 [17] - 行业预计到2028年之前供应紧张局面都不会好转 [17] 未来供应、技术与价格展望 - 增加DRAM供应的途径包括现有领先企业逐步扩产、先进封装工艺良率提升以及供应链多元化,新建晶圆厂作用相对较慢 [17] - 未来HBM技术(如HBM4)可能堆叠多达16个甚至20个DRAM芯片,这将进一步增加对硅片(DRAM芯片)的消耗 [18] - 即便新工厂投产,由于计算需求旺盛,DRAM价格下降的速度和幅度预计将远低于其上涨过程,价格可能长期居高不下 [18]
自研224 Gb/s SerDes,思科这颗芯片太猛了
半导体行业观察· 2026-02-11 09:27
文章核心观点 - 思科推出新一代G300交换机ASIC芯片,旨在通过提供高达102.4 Tb/s的聚合带宽、更高效的网络架构以及显著降低的功耗,与博通和英伟达竞争人工智能数据中心后端及前端网络市场,以解决AI计算集群的网络瓶颈问题[2][3][21] AI数据中心网络瓶颈与思科的解决方案 - 现代AI数据中心网络存在两个主要瓶颈:数据中心互连(DCI)和后端网络(连接GPU/XPU)[2] - 思科此前已通过“暗金字塔”P200路由器芯片解决数据中心互连问题[2] - 本次推出的G300 ASIC旨在解决后端网络瓶颈,提供102.4 Tb/s聚合带宽,争夺1.6 Tb/s端口市场,并与博通和英伟达竞争[2] - G300还能通过提供800 Gb/s端口来提升前端网络性能,使网络扁平化并大幅降低成本[2] G300芯片的技术定位与设计目标 - G300与G200基本性能和速度相差无几,其设计初衷是挑战InfiniBand在AI和HPC集群横向扩展网络中的地位[3] - G200自2025年5月起凭借其可扩展性和低成本优势开始崭露头角[3] - G300旨在提供一种性能提升且结构精简的以太网,实现InfiniBand的高带宽、低延迟等优势,同时保留以太网的安全性、微隔离及多厂商竞争等优点[3] - 设计目标之一是解决InfiniBand芯片来源单一给部分用户带来的顾虑[3] G300芯片的发布与配套系统 - G300与新的Nexus 9000和Cisco 8000系统、新型可插拔光模块以及网络操作系统和控制平面更新一同发布[5] - 这些更新旨在更轻松地管理使用基于G300交换机的AI系统的大规模扩展网络或更强大的前端网络[5] G300芯片的架构与制造工艺 - G300拥有512个SerDes电路模块,所有模块围绕一个数据包处理引擎封装,每个SerDes分配一个以太网MAC地址[7] - 采用“无盖”芯片设计,移除封装盖以便将散热片和液冷模块直接安装在芯片上,提升冷却效率[7] - G100采用台积电7纳米工艺,G200采用台积电5纳米工艺[7] - G300配备252 MB的SRAM缓存,推测至少是G200缓存容量的两倍[7] - 推测G300采用多芯片设计:数据包处理引擎及SRAM缓存可能采用台积电3纳米工艺,而周围的SerDes芯片可能采用基于5纳米改进的4纳米工艺[8] G300芯片的性能与缓冲技术 - 252 MB的缓冲区是所有512个SerDes共用的单一统一缓冲区,提高了运行效率,尤其在网络拥塞时可防止以太网丢包和数据包损坏[10] - 大容量缓冲区与一组片上硬件负载均衡代理结合,可监控流量、绘制流量图并优化网络中所有G300交换机的流量[10] - 该优化软件采用算法,但并非严格意义上的人工智能[10] - 与所有Silicon One芯片一样,G300完全可使用P4网络编程语言进行编程[10] G300芯片的端口配置与SerDes性能 - G300中使用的SerDes由思科设计,编码前传输速率为224 Gb/s,编码后为200 Gb/s,这是思科首款200 Gb/s SerDes[12] - 芯片支持灵活的端口配置:可创建512个200 Gb/s端口、256个400 Gb/s端口、128个800 Gb/s端口或64个1.6 Tb/s端口[12] 光模块策略与功耗优势 - G300可直接驱动线性可插拔光模块,每个端口速率可达800 Gb/s,思科也提供配套的LPO模块[13] - 思科提供自主研发的1.6 Tb/s OSFP可插拔光模块,同时也为需要更多选择的客户开发基于第三方DSP的可插拔模块[13] - 迁移到LPO光模块可大幅节省电力:光模块功耗可降低约50%,AI集群中整个交换基础设施的功耗可降低约30%[13] - 部分客户为应对2026年下半年推出的GPU/XPU需要1.6 Tb/s端口,而另一些客户则认为800 Gb/s带宽已足够并选择低功耗LPO模块[13] G300的性能提升与可靠性 - 综合所有因素并根据带宽标准化后,G300的网络利用率比G200和许多竞争对手高出33%,作业完成速度快28%[14] - 思科对光模块的测试和认证体系比业内其他公司更全面,因为AI工作负载是同步的,单个光模块故障会导致AI作业重启,必须回到检查点重新开始[14][15] G300的硬件产品形态 - 风冷设备:应用于运行NX-OS的Nexus N9364-SG3以及运行SONiC的Cisco 8133,占用3U机架空间,有64个1.6 Tb/s端口[15][17] - 液冷紧凑设备:符合开放计算项目Orv3N规范的21英寸宽设备,包括运行NX-OS的Nexus N9363-SG2或运行SONiC的Cisco 8132[17] G300带来的架构与成本优势 - 以前需要六个G200设备交叉耦合才能提供102.4 Tb/秒的聚合连接,现在只需一个G300即可[19] - 即使G300价格是G200的三到四倍,与G200相比仍物超所值[21] - 在AI出现前,新ASIC芯片成本约为旧芯片的1.5倍以提供两倍带宽,而G300带来了70%的电力效率提升,对以千兆瓦为单位购买电力的公司意义重大[21] P200产品线的完善 - 除了G300,思科本周进一步完善了P200产品线,不仅在商用级Nexus设备中提供P200芯片,还在其Nexus和白盒模块化交换机的线卡中提供该芯片[21]
CPU再度崛起,需求飙升
半导体行业观察· 2026-02-10 09:14
文章核心观点 - 自2023年以来,数据中心的发展重心从CPU转向了GPU和网络,导致英特尔等传统CPU供应商错失增长机会 [2] - 然而,过去六个月情况发生巨大变化,CPU需求因强化学习和Vibe编码等因素而飙升,其在数据中心的作用迎来转折点 [2][5] - 2026年将是数据中心CPU市场激动人心的一年,英特尔、AMD、ARM阵营等多厂商将推出新一代产品,竞争格局将发生显著变化 [7] 数据中心CPU的作用和演变 - 现代数据中心CPU的雏形可追溯至20世纪90年代,英特尔奔腾Pro和至强系列通过多芯片模块(MCM)设计提升了性能 [9] - 互联网泡沫时代,数据中心CPU市场发展为价值数十亿美元的产业,设计重点转向多核集成和同步多线程(SMT)技术 [10][11] - 2000年代末云计算的兴起是重大转折点,CPU硬件虚拟化成为关键,但Spectre和Meltdown漏洞导致禁用SMT后性能损失高达30% [12][13] - 新冠疫情至ChatGPT发布前,英特尔向云端和企业数据中心交付了超过1亿颗至强可扩展CPU [14] - AI时代,CPU在数据中心角色被颠覆,分为管理GPU的“头部节点”和追求每瓦吞吐量的“云原生Socket整合”两大类 [15] - Socket整合比例可达10:1甚至更高,疫情期间购买的数百万台英特尔Cascade Lake服务器正被功耗低至其五分之一的新CPU取代 [17] - 如今,为支持AI训练和推理,CPU使用率再次加速增长,例如微软为OpenAI打造的“Fairwater”数据中心配备48MW的CPU和存储大楼为295MW的GPU集群提供支持 [19] - 强化学习训练循环需要大量CPU并行执行代码编译、验证和物理模拟等操作,检索增强生成(RAG)和智能体模型也增加了对通用CPU的需求 [21][22] - 展望2026年,数据中心对CPU和DRAM需求将更高,AMD预计服务器CPU市场将实现“强劲的两位数”增长 [22] 多核CPU互连技术发展史 - 早期双核设计(如英特尔奔腾D)核心间通信通过前端总线(FSB)在北桥芯片进行,而AMD Athlon 64 X2在同一芯片上集成双核和内存控制器,通过片上网络(NoC)通信 [24] - 随着核心数增加,早期采用全连接交叉开关,但链路数量随核心数大幅增加,实际极限约为4个核心,更高核心数通过多芯片模块实现 [28][29] - 英特尔在2010年Nehalem-EX处理器中引入环形总线架构,将核心、内存控制器等节点排列成环路,以控制布线复杂度 [33] - 为扩展核心数,英特尔后续采用了“虚拟环”、双独立环形总线(如18核Haswell)等设计,但导致了非均匀内存访问(NUMA)问题 [41][44] - 2017年,英特尔在Skylake-X至强可扩展处理器中采用网状互连架构,核心以网格形式排列,成为未来十年核心扩展的基础 [49] - 网状架构下,内存访问和核心间延迟存在显著差异,可通过子NUMA集群(SNC)模式优化,但每个处理器被视为多个插槽 [49] - 采用EMIB先进封装技术的Sapphire Rapids实现了跨芯片的网状架构,将核心数增至60个,但平均核心间延迟从Skylake的47ns增至59ns [59] - 随后的Emerald Rapids将芯片减至2片,核心数增至66个,L3缓存容量几乎翻三倍至320MB [60] - 在Xeon 6平台,英特尔采用异构解耦设计,将I/O与计算核心分离,计算芯片可混合搭配P核和E核配置 [64] - Sierra Forest处理器采用E核心,以8x6网格排列,最多激活144个核心,但市场接受度有限 [66] - Clearwater Forest采用Foveros Direct混合键合,将核心堆叠在基础芯片上,使核心数达288个,但性能仅比Sierra Forest快17%,且面临延迟和成本挑战 [67][69] 主要厂商2026年CPU架构分析 英特尔 - Diamond Rapids设计转向类似AMD的架构,四个核心构建模块(CBB)芯片围绕中央I/O芯片,最多启用192个核心 [88] - 每个CBB内部,32个双核模块通过混合键合连接到基片,两个核心共享一个公共L2缓存 [88] - 该设计放弃了EMIB高级封装,使用基板走线连接,预计跨CBB延迟会显著增加 [89][90] - 最大问题在于缺少同步多线程(SMT),导致192核192线程的Diamond Rapids相比128核256线程的Granite Rapids性能仅提升约40% [92] - 英特尔取消了主流的8通道Diamond Rapids-SP平台,其销量最大的核心市场在2028年前将没有新一代产品 [93] AMD - Venice架构最终采用先进封装技术,使用高速短距离链路将CCD芯片连接到分成两个芯片的中央I/O集线器 [95] - I/O芯片总共有16个内存通道,支持MRDIMM-12800,可提供1.64TB/s带宽 [95] - CCD内部采用网状网络,Zen6c处理器以4x8网格排列,八个N2 CCD芯片使核心数量达到256个 [96] - 针对AI头部节点的“-F”系列将采用12核Zen6 CCD,最多在8个CCD中实现96个核心 [97] - AMD声称顶级256核版本的每瓦性能比192核Turin版本高出1.7倍以上,并引入了新的AI数据类型指令 [99] - AMD将推出全新的8通道Venice SP8平台,提供高达128个高密度Zen 6c核心,旨在企业级市场获得份额 [100] NVIDIA - Grace CPU设计专注于核心节点和扩展GPU内存,通过900GB/s的NVLink-C2C链路让GPU访问CPU内存,最高配备480GB LPDDR5X内存 [103] - 采用ARM Neoverse V2设计,部署在6x7网状网络上,最多启用72个核心 [103] - 其分支预测引擎存在瓶颈,处理未优化HPC代码时速度较慢,优化后可带来50%的速度提升 [104] - Vera CPU将于2026年推出,C2C带宽翻倍至1.8TB/s,内存容量达1.5TB,带宽1.2TB/s,采用7x13网格,最多激活88个核心 [106] - Vera采用全新的定制ARM核心“Olympus”,支持SMT,实现88核176线程,浮点单元端口增至6个,整体性能提升2倍 [114] AWS (亚马逊) - Graviton5于2025年底预览,配备192个Neoverse V3核心,采用台积电3nm工艺,晶体管数量达1720亿 [116][120] - L3缓存从Graviton4的36MB提升至192MB,内存带宽(12通道DDR5-8800)提升57% [120] - PCIe通道升级至Gen6但数量从96条减至64条,是成本优化举措 [120] - 采用改进的芯片组架构,两个核心共享一个网格节点,排列成8x12网格,核心网格分布在多个计算芯片上 [121] - AWS在内部使用数千颗Graviton CPU运行EDA工具来设计未来芯片,并宣布Trainium3加速器将使用Graviton CPU作为头节点 [123] 微软 - Cobalt 200于2025年底发布,核心数从128个增至132个,采用Neoverse V3设计,性能比Cobalt 100提升50% [127][128] - 核心配备3MB L2缓存,通过标准ARM网状网络连接到两颗3nm计算芯片,每芯片采用8x8网状结构,共192MB共享L3缓存 [128] - 与Graviton5不同,Cobalt 200仅用于Azure通用计算服务,不作为AI头节点 [128] 谷歌 - Axion C4A实例最多搭载72个Neoverse V2核心,采用9x9网格布局,预留9个核心提高良率 [132] - 为成本效益的横向扩展,Axion N4A实例采用64个Neoverse N3内核,采用台积电3nm工艺定制设计 [133] - 谷歌计划将内部服务迁移到ARM架构,并未来设计Axion CPU用作TPU集群的头部节点 [133] Ampere Computing - AmpereOne CPU核心数提升至192个,采用5nm工艺和芯片组设计,将I/O分离到独立芯片 [140] - 采用定制ARM内核注重核心密度,配备2MB L2缓存,整数性能比Altra Max提升一倍 [140] - 2025年被软银以65亿美元收购,原路线图不再适用,收购原因包括软银希望提升其Stargate项目的CPU设计水平,以及甲骨文希望剥离该业务 [141] - 由于上市时机和性能问题,市场需求不足,Oracle的Ampere CPU采购额从2023财年的4800万美元骤降至2025财年的370万美元 [141][142] ARM - ARM计划在2026年推出完整的数据中心CPU设计方案Phoenix,Meta将成为其首个客户,这意味着ARM将直接与获得其Neoverse CSS授权的客户竞争 [143] - Phoenix采用128个Neoverse V3内核,通过ARM的CMN网状网络分布在两颗3nm芯片上,配备12通道DDR5-8400内存和96条PCIe Gen 6通道 [144] 华为 - 计划在2026年推出鲲鹏950处理器,核心数量翻倍至192个,采用自主研发的LinxiCore核心并保留SMT支持 [150] - 承诺在OLTP数据库性能上比鲲鹏920B提升2.9倍,将部署在泰山950 SuperPoD机架中,每个机架可容纳16台双路服务器,配备高达48TB DDR5内存 [150] - 路线图延续至2028年的鲲鹏960系列,将有高性能(96核)和高密度(256核以上)两个版本 [151]
存储芯片,势头不减
半导体行业观察· 2026-02-10 09:14
内存芯片价格飙升的市场影响 - 过去几个月内存芯片价格持续飙升,导致股市赢家(内存生产商)和输家(下游设备制造商)之间出现巨大分化 [2] - 彭博社全球消费电子产品制造商指数自9月底以来下跌了12%,而一篮子内存制造商(包括三星电子)的股价则飙升了160%以上 [2] - 从游戏机制造商任天堂、大型PC品牌到苹果供应商,许多公司股价因盈利担忧而下跌 [2] 下游公司的具体困境 - 智能手机处理器制造商高通公司股价下跌超过8%,因其表示内存供应紧张将限制手机产量 [5] - 任天堂在东京股市的股价跌幅创下18个月以来最大,此前公司警告内存短缺将带来利润压力 [5] - 瑞士外设制造商罗技国际公司的股价已从11月份的高点下跌约30%,原因是芯片价格上涨抑制了个人电脑需求前景 [5] - 从比亚迪到小米,中国电动汽车和智能手机制造商的股价也因对芯片短缺的担忧而表现疲软 [5] 内存生产商的股价表现 - 英伟达HBM主要供应商SK海力士的股价自9月底以来在首尔上涨超过150% [9] - 日本铠侠和台湾南亚科技的股价同期均上涨约280% [9] - 闪迪在纽约的股价上涨超过400% [9] 内存市场的供需动态与“超级周期” - 美国超大规模数据中心运营商在人工智能基础设施上的巨额支出,加剧了内存芯片短缺问题 [6] - 以亚马逊公司为首的大规模人工智能基础设施建设,已将产能从传统的DRAM转向高带宽内存 [6] - 这导致了部分人士所说的“超级周期”,打破了内存供需通常的繁荣-萧条模式 [6] - 过去几个月,DRAM现货价格飙升超过600% [9] - 人工智能正在创造对NAND闪存芯片和其他存储产品的新需求,也推高了这些领域的成本 [9] 行业观点与周期判断 - 富达国际基金经理Vivian Pai认为,行业供应紧张的局面可能会持续下去,甚至可能持续到今年年底,而市场估值很大程度上是基于波动将在1到2个季度内恢复正常的预期 [2] - 盛宝银行首席投资策略师Charu Chanana指出,内存价格已从背景话题跃升为财报季的头条新闻,市场已消化价格上涨信息,但供应紧张的持续时间开始受到质疑 [5] - GAM投资管理公司的基金经理Jian Shi Cortesi表示,从历史上看内存周期通常持续3-4年,但当前周期无论在长度还是幅度上都已经超过了之前的周期,并且没有看到需求势头减弱的迹象 [9]
这种芯片将突破内存壁垒
半导体行业观察· 2026-02-10 09:14
文章核心观点 - 加州大学圣地亚哥分校的研究团队开发了一种全新的“体电阻式随机存取存储器(RRAM)”技术,通过摒弃传统的丝状结构,实现了在内存中进行计算,有望突破人工智能的“内存墙”瓶颈 [2][3] 技术原理与创新 - 传统丝状RRAM通过在介电材料中形成低电阻细丝存储数据,但需要过高电压、过程充满噪声且随机,不利于与处理器集成和3D堆叠 [3] - 新开发的体RRAM技术摒弃了细丝,使整个材料层在高阻和低阻状态间切换,避免了高压形成步骤和对器件几何形状的限制 [3] - 该技术将RRAM器件尺寸缩小至40纳米,并成功堆叠多达八层,形成三维电路 [4] - 施加单一电压脉冲可使八层堆叠单元实现64种不同的电阻状态,且堆叠单元电阻值达到兆欧级,优于传统千欧级限制,更利于并行运算 [4] 性能测试与应用前景 - 研究团队将多个八层堆叠组装成1千字节的无选择器阵列,并使用持续学习算法进行测试,对可穿戴传感器数据分类的准确率达到90%,性能与数字实现的神经网络相当 [5] - 该技术特别适用于边缘设备上的神经网络模型,使其能在不连接云端的情况下从环境中持续学习 [5] - 任何能让模型直接在内存上运行的技术都可能成为解决传统内存无法满足大型模型增长需求这一瓶颈的捷径 [6] 行业评价与潜在挑战 - 行业专家认为,将RRAM集成到阵列中是重大进步,任何集成方面的进步都非常有用 [5] - 潜在的挑战在于数据长期保存能力,尽管在室温下可保存数据数年(与闪存相当),但在设备实际运行的高温环境下,其数据保存能力尚不确定 [5]
台积电淡出成熟制程
半导体行业观察· 2026-02-10 09:14
台积电产能结构战略性调整 - AI带动先进制程与封装需求强劲,公司资源向高毛利、高成长的AI相关业务倾斜,加速调整产能结构并淡出成熟制程领域 [2] - 公司已降低部分6吋与8吋晶圆产能,以优化资源配置,并非全面退出成熟制程,而是将8吋业务转为策略性支援角色,并通过产能整并与设备出售逐步外移重心 [2] - 在此架构下,世界先进成为最大受惠者,公司8吋年产能约500万片,未来约八成(即约400万片)将逐步交由世界先进承接 [2][3] 世界先进承接产能与成长前景 - 公司8吋年产能约500万片,未来约八成将通过转单、设备移转与技术合作等方式交由世界先进承接 [3] - 世界先进已获得公司两次8吋设备出售及氮化镓技术授权,成为同时具备GaN-on-Si与GaN-on-QST制程平台的业者 [3] - 世界先进目前8吋平均月产能约28.6万片,随着公司产能与设备陆续到位,其8吋年产能未来数年可望较现阶段倍数成长,市占率将同步提升 [3] 台积电美国亚利桑那州投资进展 - 公司正将亚利桑那州数十亿美元投资转化为美国半导体制造业基石,计划到2030年建成多达六座晶圆厂 [5] - 第一座晶圆厂已投入大规模生产,第二座预计2027/2028年投产,第三座已在建设中,总投资额将超过650亿美元 [6] - 该基地专注于先进的4nm和sub-5nm技术,吸引了苹果、英伟达和AMD等主要客户 [6] 美国晶圆厂成功关键与影响 - 亚利桑那州第一座工厂生产的先进芯片良率与台湾工厂相当甚至更高,与早期担忧相反 [8] - 人工智能、数据中心及先进封装技术的快速发展,对公司产量产生了巨大的需求 [8] - 庞大的晶圆厂集群占地面积正在推动未来10年对材料、设备和建筑服务的需求浪潮,将使专业供应商受益,并预计创造数千个高科技就业岗位 [6][8]
透过ASML 2025全年财报,看增长背后的结构变化
半导体行业观察· 2026-02-10 09:14
行业趋势与周期转变 - 半导体行业正从由手机、PC等单一终端主导的传统周期,转入以“AI算力基建”为代表的多元驱动演进 [1] - 生成式AI进入应用爆发期,全球数据中心对逻辑芯片与HBM的算力需求狂热,拉动先进制程投资回暖,同时AI应用也带动了对成熟制程的需求 [1] ASML 2025年财务表现 - 2025年ASML实现全年净销售额约327亿欧元,全年毛利率约52.8%,净利润约96亿欧元,营收、利润、在手订单全部刷新纪录 [2][4] - 截至2025年末,ASML在手订单规模达到约388亿欧元,为2026年及之后的营收提供了较高可见度 [4] - 公司宣布了一项高达120亿欧元的股票回购计划(执行至2028年底) [19] 产品结构:EUV与DUV双轨驱动 - EUV(极紫外光刻)系统销售额在2025年达到116亿欧元,同比增长39%,在系统收入中的占比从2024年的38%上升至48%,成为占比最高的单一技术类别 [4] - 截至2025年末,公司未交付的388亿欧元订单中有255亿欧元为EUV订单,2025年第四季度确认了两套High-NA EUV系统收入 [4] - DUV(深紫外光刻)系统仍是当前半导体制造体系中不可或缺的核心设备,承担着绝大多数光刻任务 [7] - 高端DUV系统持续进化,例如ArF浸润式光刻机NXT:2150i在量产环境下已实现每小时300片以上晶圆的稳定吞吐能力 [7] - DUV的应用边界正从“前道晶圆制造”向“先进封装与3D集成”延伸,ASML已出货面向3D应用和先进封装领域的首台i-line光刻机XT:260 [8] - ASML的增长逻辑形成了“先进制程由EUV牵引、成熟制程与先进封装由DUV支撑”的双轨结构 [8] 中国市场表现与驱动因素 - 2025年ASML在中国市场的全年净系统销售额占比为33%,高于此前预期,显示出极强的韧性和需求 [9] - 成熟制程(28nm及以上)的大规模扩产是核心动力之一,汽车电子、工业自动化、物联网和家电芯片的需求支撑了对DUV设备(尤其是浸润式ArFi)的确定性需求 [10] - AI需求的“溢出效应”带动了对成熟制程芯片的需求,例如HBM的逻辑基础层与先进封装、AI服务器的电源管理与接口芯片,以及端侧AI应用拉动的传感器、模拟器件等,这些大多由DUV完成 [11] - 先进封装(2.5D/3D)产线建设加快,ASML的相关设备(如XT:260)与中国市场策略高度匹配 [12] - ASML预计2026年中国区的收入占比将稳定在20%左右,这是全球产能配置下的“常态化回归” [12] 公司战略转型:从设备商到平台公司 - ASML正在完成从“周期性设备商”向“结构性平台公司”的转变,围绕光刻环节提供全方位解决方案 [14] - “软硬一体”的工程体系深化:持续强化计算光刻软件、量测与检测业务,2025年量测与检测系统销售额同比增长28%,达到8.25亿欧元,并战略投资13亿欧元于Mistral AI以利用AI强化核心竞争力 [15] - “存量复利”带来现金流重塑:2025年装机售后服务营收约82亿欧元,同比增长超25%,已成为继系统销售后的第二大收入来源,构建起接近百亿欧元规模的“年费型业务池” [15] - 公司正从“卖硬件的设备公司”向“系统级算力制造基础设施的平台公司”转型 [19] 未来业绩展望 - ASML预计2026年净销售额将在340亿至390亿欧元区间,毛利率维持在51%–53%,其中第一季度净销售额预计为82亿至89亿欧元,装机售后服务单季净销售额约24亿欧元 [18] - 公司维持长期指引不变:到2030年,总营收有望达到440亿至600亿欧元,毛利率提升至56%–60% [18] - AI作为最核心的需求源头,是未来增长的重要驱动力,行业对AI相关数据中心与基础设施建设的预期改善,正转化为对先进制程产能的实际需求,并直接带动对EUV的需求增长 [18]
硅光,大爆发
半导体行业观察· 2026-02-10 09:14
文章核心观点 硅光子技术是驱动数据中心,特别是人工智能网络发展的关键变革性技术,其应用正从横向扩展网络向纵向扩展网络演进,并将推动光器件市场、硅光子代工产业及相关芯片设计发生巨大变化,其中台积电有望凭借其在AI加速器制造中的主导地位,成为未来硅光子晶圆代工领域的领导者 [2][4][35][37][53] 数据中心光互连演进与市场 - 数据中心互连分为横向扩展(Scale-out)和纵向扩展(Scale-up),前者连接机架与交换机,后者直接连接GPU等计算单元,纵向扩展的链路数量远多于横向扩展,例如一个Nvidia NVL72机架就有1296个链路,未来采用光纤将大幅增长光纤市场 [4] - 光器件市场规模已从2003年的数十亿美元增长至2023年的约130亿美元,预计到2030年将达到250亿美元,另一预测则认为到2029年可达310亿美元,增长主要受人工智能网络驱动 [4] - 光纤电缆市场庞大,领导者康宁公司年销售额达68亿美元,并与Meta达成了价值60亿美元的长期供应协议 [9] 硅光子技术基础与应用 - 硅光子学将激光器、调制器等光子器件集成到改进的CMOS工艺中,利用单模光纤传输数据,其工作波段(如O波段)在硅波导中损耗较低 [10][12][14] - 当前主要应用是可插拔光收发器,其市场预计将从2023年的60亿美元增长至2030年的250亿美元,未来将以1.6T和3.2T数据速率为主 [16] - 光路交换机(OCS)用于数据中心顶层互连的重配置,谷歌采用MEMS镜技术,Coherent和Lumentum也提供相关方案,Coherent将其潜在市场规模预估从超过20亿美元上调至超过30亿美元 [17][18] - 多家初创公司(如iPronics, nEye, Salience)正在开发基于紧凑硅光子技术的“二维”光通信系统(OCS),可能未来取代硅分组交换机 [20] 共封装光学器件(CPO)的发展 - CPO能实现比可插拔光器件更高的密度和更低的功耗,其功耗仅为可插拔式的三分之一,对于拥有超千个连接的机架意义重大 [21][24] - 英伟达和博通已宣布将于2025年推出采用CPO的以太网横向扩展交换机,Ayar Labs、Celestial(被Marvell收购)、Lightmatter和Ranovus等公司也在开发CPO解决方案 [21][24] - 目前GPU/AI加速器仍使用铜缆互连,但铜缆性能提升已近瓶颈,未来将向光纤CPO过渡,以实现更高带宽和更低延迟,Ayar Labs与Alchip已展示基于CPO的AI加速器概念 [26] 硅光子制造与代工格局 - 当前主要硅光子代工厂商是GlobalFoundries(收购AMF后)和Tower Semiconductor,台积电、三星和联电也在开发相关技术 [28] - GlobalFoundries预计其硅光子业务收入在2026年将接近3亿美元,到2030年代末将超过10亿美元,并预测2026年行业第二、三、四名代工厂收入分别约为2亿、1亿和5000万美元,总和不足10亿美元/年,不到台积电年营收的1% [28][30] - 数据中心AI正推动硅光子代工厂收入从2026年到2032年实现八倍增长,横向扩展是当前主要驱动力,几年后纵向扩展将成为最大驱动力 [35] - 台积电目前为英伟达、AMD、谷歌、AWS等生产几乎所有AI加速器芯片,并要求封装内所有芯片组按其规范生产,随着AI加速器向CPO过渡,台积电很可能在五年内从零基础跃升为全球最大的硅光子晶圆代工厂 [36][37] 硅光子芯片设计与挑战 - 硅光子设计目前类似上世纪80年代的硅设计,缺乏成熟的PDK和IP库,Synopsys和Cadence等公司提供设计工具,但许多新结构需从底层物理开始建模 [39] - 硅光子器件在SOI晶圆上制造,工艺节点可达65纳米,关键挑战在于精确控制信号损耗 [41][45] - 主要硅光子器件包括:用于布线的波导、用于光耦合的耦合器(边缘耦合器与光栅耦合器)、用于光信号检测的锗基光电探测器,以及用于电光转换的调制器(可插拔中用马赫-曾德尔调制器,CPO中用微环调制器) [45][46][47] - 硅光子芯片物理尺寸较大,短期内无法集成到3nm或2nm等先进CMOS工艺中 [49]