Workflow
半导体行业观察
icon
搜索文档
新思CEO:存储芯片缺货到2027年
半导体行业观察· 2026-01-27 09:26
文章核心观点 - 人工智能基础设施热潮引发内存芯片短缺和价格上涨 预计短缺局面将持续至2027年 形成“超级周期” [1][2] - 内存价格上涨趋势已开始 消费电子公司可能将成本转嫁给消费者 低端电子产品市场将首先受到冲击 [3][4] 内存短缺现状与预测 - 一位半导体行业高管表示 价格上涨和内存短缺局面可能会持续到2027年 [1] - Synopsys首席执行官Sassine Ghazi指出 芯片短缺局面将持续到2026年和2027年 [1] - 顶级厂商的大部分内存直接用于人工智能基础设施 其他产品市场面临产能不足问题 [1] - 主要内存制造商(三星、SK海力士和美光)正在扩大产能 但至少需要两年才能实现量产 [1] 行业周期与需求驱动 - 当前内存行业趋势被一些分析师称为“超级周期” 是内存公司的黄金时期 [2] - 全球最大的PC制造商联想首席财务官指出 需求旺盛而供应不足 将看到内存价格上涨 [2] - 对高带宽内存的需求十分旺盛 数百亿美元资金投入数据中心基础设施 引发内存芯片需求爆炸式增长和价格前所未有的上涨 [1] 对消费电子市场的影响 - 内存价格飙升意味着消费电子公司可能不得不考虑提价 [4] - 小米去年预计手机价格将在2026年上涨 但Synopsys首席执行官表示价格上涨“已经开始了” [4] - 联想首席财务官非常有信心能将成本转嫁给消费者 因其拥有遍布全球的多元化供应链和30家制造工厂 [4] - 消费电子设备领域在价格需求方面受到一定影响 PC和笔记本电脑用户仍在向Windows 11系统升级 但价格上涨将首先冲击低端产品市场 [4]
SerDes,愈发重要
半导体行业观察· 2026-01-26 09:42
文章核心观点 - 人工智能的爆发式发展,特别是大规模AI训练对海量数据交换的需求,将一项已有数十年历史的成熟技术——SerDes(串行器/解串器)推向了行业前沿,使其从辅助组件转变为构建AI数据中心不可或缺的关键技术[1] - 随着AI模型规模和GPU集群的扩大,数据传输速度成为系统瓶颈,SerDes作为“数据高速公路”的核心,其性能直接决定了整个AI计算系统的效率[1] - 行业正围绕SerDes技术展开一场隐形的竞赛,竞争焦点在于谁能提供更快、更高效、更经济的解决方案,这将成为决定未来AI基础设施竞争格局的关键因素[13] SerDes技术原理与作用 - SerDes是Serializer和Deserializer的合成词,其核心功能是将多路并行数据在发送端合并为一路高速串行数据,在接收端再还原为并行数据,以此解决芯片或设备间大量并行线路传输的物理和同步难题[3] - 该技术通过单根电线传输数百Gbps的数据,类似于将多辆货车的货物集中到一列高速子弹头列车上进行运输[3] - SerDes技术已应用数十年,常见于USB、HDMI和以太网等接口,但AI对带宽的极致需求使其重要性发生质变[3] AI驱动下的性能需求与增长 - NVIDIA最新的AI系统GB200 NVL72通过NVLink连接72个GPU,每秒可交换约130 TB的数据,形象化比喻相当于一秒钟内流式传输6,000到10,000部两小时的Netflix 4K电影[3] - 单个GPU间连接带宽大幅提升,NVIDIA第五代NVLink提供的GPU间双向带宽为1.8 TB/s,是2014年第一代NVLink(160 GB/s)的11.3倍[4] - 随着链路速度提升和连接规模扩大,自2014年以来,NVLink域的总带宽增加了900倍,在576个GPU的域中达到了1 PB/s的水平[4] 市场规模与资本支出 - 全球SerDes市场预计将从2024年的7.453亿美元增长到2032年的约20亿美元,复合年增长率为13.45%[6] - 超大规模数据中心运营商(亚马逊、微软、谷歌和Meta)的资本支出急剧增长,预计四家公司2024年资本支出总额为2244亿美元,2025年将达到3150亿美元[6] - 其中,Alphabet将其2025年资本支出预期上调至910亿至930亿美元,亚马逊则表示其2025年资本支出约为1250亿美元,这些投资中的相当一部分将流向依赖于SerDes技术的交换机、网卡、光模块和GPU[6] 技术挑战与设计核心 - 在极高的传输速度下(如主流112G SerDes每秒传输1120亿比特),信号会发生严重失真、衰减和干扰,模拟电路设计在从失真信号中精确读取原始数字数据方面起着至关重要的作用[8] - 高速模拟电路设计能力是SerDes领域的核心竞争优势,其作用类似于在数字化交通中负责道路铺设和流量控制[9] - SerDes的设计和验证非常困难,因此许多芯片公司选择购买经过验证的SerDes PHY IP许可[11] 技术演进与下一代标准 - 目前主流标准是112G SerDes,将8条通道捆绑可形成800Gbps(800G以太网),这是当前AI数据中心的标准[9] - 下一代224G以太网预计2025年投入量产,2026年显著普及,采用8条通道可实现1.6T以太网,预计到2028年,1.6T网络市场规模将达到130亿美元[9] - 更远的未来,448G SerDes处于研究阶段,预计在2028年之后应用[10] 传输介质演进与CPO技术 - 随着速度提高,铜线传输距离受限,在112G速率下有效距离缩短至约2.0-2.5米,在224G速率下缩短至约1米[10] - 共封装光器件(CPO)技术日益受到关注,它将光模块直接封装在芯片旁边,以缩短电信号传输距离,并利用光进行远距离传输[10] - NVIDIA和Broadcom计划在2025年至2026年间发布CPO产品,预计在2027年后将得到广泛应用[11] 行业竞争格局与未来焦点 - 行业正进入224G量产竞赛(2025-2026年),谁能率先大规模供应稳定的224G解决方案将决定未来几年的市场领导地位,目前Synopsys、Cadence和Marvell处于领先地位[11] - 在AI加速器互连标准上,存在NVIDIA的NVLink与由AMD、Intel、Google、Meta等公司联合成立的开放标准UALink之间的竞争,UALink于2025年4月8日发布了UALink 200G 1.0规范[12] - SerDes设计涵盖模拟、数字和信号处理领域,吸引和竞争顶尖技术人才已成为整个行业的结构性挑战,并与公司的竞争力直接相关[12]
汽车厂商,被逼重构芯片
半导体行业观察· 2026-01-26 09:42
文章核心观点 - 人工智能市场对存储芯片的爆炸性需求导致供应紧张和价格飙升 这种短缺正蔓延至汽车行业 可能迫使汽车半导体公司更改产品设计 并对全球汽车供应链构成重大风险 [1][2] 存储芯片市场供需与价格趋势 - 人工智能服务器和AI半导体对高带宽内存的需求呈爆炸式增长 推动DRAM价格持续上涨 [1] - 市场研究数据显示 去年第四季度因DDR5需求强劲 DRAM价格飙升了53%至58% [1] - 预计今年第一季度DRAM价格将上涨超过60% 部分产品价格甚至接近翻倍 [1] - 存储芯片供应紧张预计将推高价格 业内预计存储芯片价格将上涨两倍以上 [1] - 全球大型科技公司对AI的投资推动了HBM和通用DRAM的爆炸式增长 [2] - 考虑到主要厂商新产线投产时间 预计到2028年之前存储芯片供应量都难以出现实质性增长 [2] 汽车行业面临的挑战与影响 - 存储芯片供应紧张预计将导致汽车半导体短缺 风险可能从今年上半年开始显现 [1] - 存储芯片短缺可能对全球汽车行业构成重大风险 极有可能给汽车半导体供应商和整车制造商都带来财务压力 [1] - 随着软件定义汽车普及 高级驾驶辅助系统、自动驾驶和信息娱乐系统发展 汽车对高性能DRAM的需求正在增长 每辆车安装的内存芯片数量显著增加 [1] - 汽车半导体完成可靠性验证所需时间比通用半导体更长 而内存芯片公司产能有限 即使验证完成也难以获得足够供应 [2] - 存储芯片供应紧张可能导致汽车半导体公司不得不更改产品设计 一些公司正努力减少安装的内存芯片数量 [2] - 力图从传统DDR4过渡到最新DDR5的公司可能受到更大冲击 因为DDR4产量减少而DDR5需求正被AI市场分流 [2]
三星HBM4,即将量产
半导体行业观察· 2026-01-26 09:42
三星电子HBM4生产与供应计划 - 知情人士透露,三星电子计划从下个月开始生产下一代高带宽内存HBM4芯片,并供应给英伟达 [1] - 韩国《韩国经济日报》报道,三星芯片已通过英伟达和AMD的HBM4认证测试,将于下个月开始向这两家公司供货 [1] SK海力士HBM4技术进展与市场地位 - SK海力士于9月12日宣布已准备好量产下一代HBM4芯片,在竞争中领先 [3] - SK海力士的HBM4实现了超过10Gbps的运行速度,远超JEDEC标准的8Gbps [3] - 英伟达预计在2026年下半年推出的下一代GPU平台Rubin中将使用8颗SK海力士的12层HBM4芯片 [3] - 与上一代产品相比,SK海力士HBM4的能源效率提升了40%以上,预计将AI服务效能提升高达69% [4] - SK海力士在HBM4量产中采用了先进的MR-MUF堆叠方法和第五代1b、10纳米制程技术,以降低生产风险 [4] - 业内分析师预测,SK海力士HBM4的售价可能比上一代产品高出60%至70% [4] - Counterpoint Research预计,到2026年SK海力士有望占据HBM市场约50%的占有率 [5] HBM4技术特性与行业竞争格局 - HBM4是HBM标准的第四代重要版本,采用2,048个输入/输出端子,使频宽翻倍,并具备全新的电源管理和RAS功能 [3] - 美光公司于2025年6月开始向客户提供36 GB 12层HBM4堆叠样品,采用2048位元接口,频宽约为目前HBM3e模组的两倍,预计2026年开始量产 [3] - 三星一直在努力使其HBM3e堆叠获得英伟达Blackwell加速器的验证,而HBM4则需要更多时间突破 [3] - 随着AI需求和资料处理增长,对高频宽记忆体的需求激增,同时资料中心对功耗效率的要求也成为关键 [4] - 随着竞争对手三星电子和美光科技于2026年以后进入HBM4市场,产品价格才可能会逐渐下降 [4]
存储芯片,最大黑马
半导体行业观察· 2026-01-26 09:42
文章核心观点 - 美光科技在2025年成为半导体行业关注度最高的公司之一,实现了从HBM市场边缘参与者到有效竞争者的戏剧性逆转,其成功源于对早期战略失误的深刻反思、激进的技术路线调整、业务聚焦以及深度的客户协同 [1][26] HBM早期失利与战略误判 - 2011年美光推出超前的HMC技术,试图绕开JEDEC标准建立封闭生态,但成本高昂且商业化失败,导致公司在该技术上投入七年却错失AI算力爆发前的关键窗口期 [3][5][6] - 美光对HBM的战略地位出现根本性误判,长期将其视为补充性高端产品而非决定DRAM产业结构的关键变量,导致在先进封装、客户协同验证及产品响应速度上全面落后 [6] - 2020年3月美光HBM2产品上市时,市场份额仅约10%,远落后于SK海力士的50%和三星的40%,在AI训练算力基础设施中话语权缺失 [6] HBM3E阶段的战略转折与突破 - 美光重新校准战略,将HBM定位为核心方向,并做出高风险决策:跳过HBM3,直接全力研发HBM3E [7][8] - 2023年9月美光推出HBM3E,并于2024年成功进入英伟达H200 GPU供应链,标志着公司重新获得了进入AI训练核心生态的入场券 [8] - 2025财年第四季度,美光HBM内存销售额接近20亿美元,环比增长17.7%,同比增长3.78倍,公司预计到2026财年第三季度其HBM市场份额将达到约20% [10] 技术布局与系统级能力构建 - 在HBM4布局上,美光策略转变,同时布局HBM4和HBM4E产品,引脚速度提升至11 Gb/s,单堆叠总带宽达2.8 TB/s,并计划在HBM4E阶段提供支持部分计算功能的定制化基底裸片,加速向系统级能力渗透 [11] - 美光通过SOCAMM等新型内存形态布局,更多介入面向AI模块与系统层级的内存方案设计,并与英伟达等客户在产品定义阶段进行协同规划,改变了早期被动响应的合作模式 [12][13][14] - 公司能够同时提供HBM、LPDDR5、SOCAMM等多种内存方案并参与异构计算架构设计,提高了技术沟通和产品组合的灵活性 [14] 制程、产能与资本配置调整 - 美光通过制程节点区分应用场景:将常规DRAM产能转向1γ制程,释放1β制程产能专门生产HBM,以兼顾良率稳定性和高性能需求 [10][16] - 公司进行跨区域产能重组,在美国、日本、中国台湾等地新建或扩建晶圆厂,并收购力积电在中国台湾的晶圆厂资产以快速获得成熟的300mm DRAM制造能力,降低对外部代工的依赖 [17] - 2025财年资本开支为138亿美元,2026财年预计提升至约180亿美元,投入强度已接近晶圆代工厂水平 [17] 业务结构聚焦与财务表现 - 自2025年起,美光系统性调整业务结构,终止移动NAND开发、缩减消费级品牌业务并逐步退出DDR4等成熟产品线,将资源集中于数据中心相关存储产品 [19][20] - 不同业务线盈利能力差异显著:2025年上半年,数据中心存储产品毛利率约为42%,而消费级存储产品毛利率约为14% [20] - 公司将多条原消费级产品生产线改造为HBM和数据中心用DRAM产线,以支持与主要AI客户签订的长期供货协议 [20] 市场竞争地位变化与未来挑战 - 美光HBM市场份额已由此前的个位数(约10%)提升至约20%,成为当前HBM市场中增速最快的厂商之一,多家投行预计2025年市场份额结构将稳定在SK海力士、三星、美光约5:2:2的区间 [22] - 产能仍是关键约束:美光月度HBM晶圆级产能约为5–6万片,明显落后于三星和SK海力士的15–16万片,公司计划到2026年底将HBM相关产能提升至约10万片/月 [23] - 在HBM4周期中,美光能否进一步提升份额取决于三个关键变量:HBM4产品的量产进度和性能验证、新增产能的落地节奏、与头部AI客户的长期供货绑定程度 [24]
英特尔需要证明自己
半导体行业观察· 2026-01-26 09:42
公众号记得加星标⭐️,第一时间看推送不会错过。 英特尔的季度财报让公司及其股价在经历了数月的乐观情绪后回归理性。尽管英特尔的营收和利润超 出预期,令投资者感到惊喜,但令人失望的季度业绩预测却导致股价大幅下跌。周五,英特尔股价收 于45.07美元,当日下跌17%,创下自2024年8月2日以来的最大单日跌幅,当日股价暴跌26%。 该报告提醒人们,尽管有政府支持并与英伟达建立了备受瞩目的合作伙伴关系,英特尔仍然深陷危机 之中,复苏之路依然漫长。 过去六个月对英特尔股东来说简直是美梦成真。在经历了多年业绩未达标、战略失误和市场份额下滑 之后,英特尔股价在9月中旬开始反弹,涨幅超过118%,并在1月22日创下近五年来的新高。 投资者乐观情绪源于多方面因素。首先是去年四月英特尔领导层的重组,以及陈立步(Lip-Bu Tan)被 任命为首席执行官。作为半导体行业最具影响力的人物之一,陈立步上任时传递了一个明确的信息: 重塑英特尔的工程文化,并将公司重心从短期财务业绩转向卓越的产品和长期战略。伴随他上任而来 的裁员——约2.2万名员工,占英特尔员工总数的20%左右——也让投资者相信,英特尔正在变得更 加精简高效、纪律严明。 ...
一文了解PDK
半导体行业观察· 2026-01-26 09:42
数字标准单元库PDK生成流程 - PDK生成是一个多阶段工作流程,始于定义后端互连金属堆叠,经过器件建模、单元级布局和验证,最终生成布局布线工具所需的辅助文件 [9] - 完整的PDK文件集包含后端互连寄生数据、SRAM和逻辑标准单元特性数据,以及后端互连和标准单元层的设计规则 [2] - PDK在提供RTL设计仿真所需模型、评估功耗-性能-面积指标以及创建可制造布局方面至关重要 [2] 后端互连堆叠与设计规则 - 流程第一步是定义后端互连堆叠结构,包括金属层数和过孔层数、导体和介质材料,以及适用于该技术节点的金属和过孔几何形状 [1] - 光刻技术的局限性和套刻精度决定了最短金属长度、金属/通孔间的最小间距、金属线端间距、按尺寸和通过外壳等设计规则 [3] - 这些设计规则被记录在技术文件或布局交换格式文件中 [1] 器件建模与晶体管技术演进 - 针对目标技术需要设计和开发N沟道和P沟道FET器件模型,这些模型构成了标准单元库的基础 [1] - 使用TCAD等软件工具对晶体管进行仿真,器件的直流和交流特性通过传输特性、输出特性和电容特性来表征,可使用多种BSIM器件模型 [5] - 随着技术尺寸缩小,晶体管架构从平面晶体管演进到3D三栅晶体管,在22纳米及以下工艺节点,使用FinFET和GAAFET等多栅器件需要BSIM-CMG模板 [5] - 代工厂采用功函数工程技术,为NMOS和PMOS晶体管创建多个阈值电压选项 [5] 标准单元布局设计与验证 - 标准单元布局设计紧凑,将单元内部布线限制在较低的后端互连层和中层互连层 [7] - 布局绘制完成后,需要进行版图与原理图比对检查和设计规则检查,以确保其可制造性 [7] - 布局图的抽象信息会被提取到LEF文件中以进行布局布线仿真,LEF文件包含单元边界、引脚、可用于布线的金属层上的单元内互连等信息 [7] 寄生参数提取与单元特性分析 - 定义好后端互连堆叠结构后,对每一层的电气特性进行仿真,并将仿真结果写入后端互连寄生参数文件 [1] - 寄生参数提取捕获中层互连层和更低后端互连层,并将其表示为RC SPICE网表 [8] - 特性分析利用这些单元网表以及器件紧凑模型,生成不同输入转换速率和输出负载下的传播延迟、转换时间和内部能量,这些信息存储在Liberty文件中 [8]
没有台积电,就没有他们
半导体行业观察· 2026-01-26 09:42
台积电与核心客户的战略合作关系 - 英伟达和AMD首席执行官均回顾,选择台积电作为代工合作伙伴是一项关键且成功的投资 [1] - 台积电在人工智能芯片供应链中面临瓶颈,满足订单变得复杂,但其对早期合作客户表现出“忠诚”,优先保障生产线、交付速度及技术开发合作 [1] - 台积电采取渐进、可持续的价格上涨策略,而非激进策略,始终将客户关系置于首位 [1] 英伟达与台积电的合作历程与成果 - 英伟达首席执行官黄仁勋曾向台积电创始人张忠谋承诺,英伟达将成为台积电最大的客户,目前英伟达已是台积电最大的客户 [2] - 英伟达成为市值5万亿美元巨头的原因之一,是与台积电的密切关系赋予其“独家”地位,例如是A16工艺的唯一客户,并通过长期合同获得充足芯片供应 [2] - 英伟达的成功印证了优先考虑人际关系而非单纯财务目标,能带来长远利益 [2] AMD与台积电的合作决策与影响 - AMD首席执行官苏姿丰表示,信任并选择台积电作为主要制造合作伙伴,是其领导下的重大决策之一 [3] - 该决策使AMD在客户端和服务器市场份额取得显著进展,获得巨大成功 [3] - AMD的竞争对手英特尔长期受内部代工业务困扰,产品性能未达预期,同样依赖于台积电 [3] 台积电在产业链中的核心地位 - 台积电是人工智能供应链中规模最大的企业之一,与英伟达、AMD等制造商并驾齐驱 [4] - 企业与台积电的良好关系,是其即便面对英特尔等替代方案,仍首选台积电作为主要代工厂的主要原因 [4] - 没有台积电,英伟达和AMD都无法在人工智能和计算领域取得如今的成就 [4]
Chiplet革命,西门子EDA如何赋能商业化落地?
半导体行业观察· 2026-01-26 09:42
文章核心观点 - 全球半导体产业正从竞速赛转向以创新为核心的新范式,Chiplet技术成为关键路径,其发展本质是一场围绕“系统级最优化”的生态革新[4] - 传统线性设计流程难以应对Chiplet带来的系统级挑战,需要能够进行跨领域权衡与协同优化的整体解决方案[5] - 西门子EDA基于系统技术协同优化理念,提供贯穿3D IC设计、验证和制造全流程的完整方案,旨在帮助客户实现系统级高效能[6][18][26] 行业趋势与挑战 - 全球半导体产业正从旷日持久的竞速赛,转向以创新为核心的全新范式[4] - Chiplet技术主张将复杂系统分解为模块化小芯片,通过先进封装进行异构集成,以开辟通往更高性能密度的路径[4] - 随着设计复杂度指数级增长,Chiplet技术要求EDA软件、IP供应商、晶圆厂和封装厂之间达成深度协同[4] - 产业界需要的不仅仅是单点工具创新,而是能够应对系统性难题的整体解决方案[4] - 传统“先芯片、后封装、再板级”的线性设计流程,难以在早期进行跨领域权衡,可能引发难以预计的后果[5] - 先进封装技术是Chiplet从概念走向现实的钥匙,其工艺迭代直接推动Chiplet架构向更高效、更复杂、更经济的方向演进[19] 西门子EDA的解决方案与理念 - 整个设计流程基于系统技术协同优化理念,贯穿3D IC的设计、验证和制造全流程,追求系统层面的整体优化[6] - 为Chiplet设计提供从架构规划到签核验证的全流程方案[8] - 在系统架构设计环节,Innovator3D IC™ Integrator可以构建含小芯片、中介层、基板及PCB的3D数字孪生,支持早期架构探索与预仿真评估[8] - 在逻辑验证环节,Veloce CS融合硬件仿真加速、企业原型与软件原型,支持在开发初期快速迭代[9] - 在物理设计环节,芯片层使用Aprisa™/Tanner™布局布线,系统层有PCB layout和Innovator3D IC Layout,后者能够高效处理2.5D/3D结构中复杂的中介层和基板设计[10] - 在物理验证环节,Calibre®平台把单芯片“黄金”DRC/LVS标准延伸至多芯片与3D堆叠[11] - 在物理测试环节,Tessent™平台覆盖多芯片及3D结构,提供全面测试方案以保障系统可靠性[12] - 针对2.5D/3D IC设计中的电-热-力多物理场耦合挑战,提供了一套完整的闭环分析解决方案,覆盖信号与电源完整性、热分析和机械应力分析三大关键环节[14] - 信号与电源完整性通过芯片级工具Calibre mPower与系统级工具HyperLynx™ SI/PI进行电学验证[15] - 热分析利用Calibre 3DThermal实现全流程自动化建模,执行高效率、高精度的热分析[15] - 机械应力分析借助Calibre 3DStress对热-机械应力及翘曲进行晶体管级精确分析[16] - 该流程能够有效模拟“功耗生热、热致形变、应力影响电性”的复杂相互作用,帮助设计者在统一环境中进行协同优化[18] 与制造端的协同合作 - 工具的先进性建立在与制造端高度协同的基础之上,在工具正式发布前,已与晶圆厂和封测厂展开深度合作,确保交付的解决方案与目标制造工艺同步就绪[19] - 作为台积电3D Fabric联盟创始成员,直接参与制定相关设计流程与标准,工具链适配TSMC先进封装工艺[19] - 支持台积电提出的3Dblox开放标准,该标准能够统一描述Die-to-Package全层级设计行为与规格,相关工具链已获官方认证[19] - 为台积电3D Fabric技术提供经认证的自动化设计流程,即基于先进的封装集成解决方案,提供经过认证的台积电 InFO封装技术自动化工作流程[20] - 该自动化设计流程由Innovator 3D IC Integrator的异构集成座舱功能提供支持,包括Innovator3D IC Layout、HyperLynx DRC 和 Calibre nmDRC软件[20] - 与日月光协作完成封装设计套件的开发,帮助客户进行日月光扇出型封装和2.5D中介层线路MEOL的设计[20] - 通过采用西门子EDA设计途径,有效应对设计过程中持续上升的时间压力和设计复杂度[20] - 整合日月光设计流程这一共同开发流程,可以减少2.5D/3D IC和FOCoS的封装规划和验证周期,在每一次设计周期中大约可以减少30%到50%的设计开发时间[21] 生态体系构建与产业联动 - 深度参与并推动Chiplet生态体系的构建,致力于成为产业互联的关键节点,从标准制定、产业联动到学术共研,全面夯实Chiplet从设计到制造的技术基础[23] - 积极参与开放计算项目所推动的Chiplet行业标准制定工作,深入参与了Chiplet应用中所涉及的关键工具与相关规范的标准建立[23] - 构建了常态化的产业协同机制,产品团队与全球领先的IC设计公司保持定期深度技术交流,以深入洞察未来工具的功能需求[25] - 与全球主要晶圆厂和封测厂建立了紧密的技术合作渠道,提前了解制造工艺在量产前需要准备的关键要素,并据此进行产品前瞻布局[25] - 高度重视与学术界和研究机构的合作,通过直接合作或授权代理商模式,与全球多所知名大学及科研机构建立定期合作机制,开展工具协作与技术研讨[25]
Marvell,有戏吗?
半导体行业观察· 2026-01-25 11:52
文章核心观点 - AI基础设施发展进入新阶段 推理、能效和高速互连的重要性提升 这恰好对应Marvell Technology的核心优势 公司股价表现可能从2026年开始扭转此前落后于更广泛半导体市场的局面 [1] AI推理趋势与公司定位 - 到2026年 AI行业预计将从“蛮力式训练”转向代理式AI和推理 推理需要更低的延迟和显著更高的能效 [1] - Marvell的定制XPU(AI加速器)专为推理等特定工作负载设计 其ASIC被优化用于最大化“每瓦可处理的token数” 单次推理成本是云巨头扩展服务规模时最重要的指标 [2] - 公司对定制芯片采用3nm和2nm制程节点的投入 可能使其在能效竞赛中占据优势 预计今年定制AI相关收入将达到18亿美元 [2] 光互连技术布局 - 2026年关键基础设施变化之一是铜互连达到内在极限 电互连在发热、功耗和信号衰减方面遭遇挑战 [2] - Marvell押注于光互连 在共封装光学(CPO)上进行了大量投资 并以32.5亿美元收购Celestial AI 旨在将光互连直接集成到芯片封装中 [2] - 通过融合光子互连与计算和存储 公司试图解决大规模AI系统中高效搬移数据而不过度增加功耗和散热负担的瓶颈 [2] - 如果光互连从“可选升级”变成“必需配置” Marvell在CPO领域的提前布局可能使其站在下一代AI集群设计的前沿 [3] 客户多元化进展 - 传统上 Marvell被批评过度依赖亚马逊云服务(AWS) 这种客户集中度提高了盈利波动性并限制了市场对其AI潜力的认可 [3] - 公司已在美国四大云巨头中的三家赢得了定制芯片设计订单 新项目将在2026年加速推进 [3] - 在架构层面 公司确保其产品能够兼容主流AI生态 例如对NVIDIA NVLink互连的支持使其定制芯片可以与以NVIDIA为中心的环境协同工作 消除了云厂商采用时的一个重要障碍 [3] - 与多家云巨头合作有助于降低风险、稳定盈利并提升华尔街对其AI叙事的信心 [3] 财务状况与估值重估逻辑 - 按2027财年一致预期盈利的约22倍市盈率计算 Marvell的交易估值明显低于同行 尽管其营收预计将在2026年增长42% 并在2027年增长22% [4] - 当前约15%的营业利润率偏低 反映了其历史业务结构、硬件属性以及客户集中度 [4] - 重新评级的逻辑在于改变利润率结构 随着数据中心收入占比提高、云规模ASIC项目持续放量以及客户多元化降低盈利波动性 公司将逐渐更像一个结构性的AI基础设施平台而非周期性元器件供应商 [4] - 如果利润率能伴随营收一同增长 当前的低估值倍数将越来越难以被合理化 [4]