半导体行业观察
搜索文档
Lisa Su最新专访:谈GPU、DeepSeek和AI展望
半导体行业观察· 2025-08-14 09:28
公司业绩与战略 - AMD在苏姿丰领导下市值从20亿美元飙升至近3000亿美元 [5] - 数据中心收入从2022年60亿美元增长到2023年126亿美元 [15] - 采用小芯片技术并推出全球首款7纳米数据中心GPU [6] - 与OpenAI、Meta、谷歌、特斯拉等巨头达成合作 [6][16] 行业竞争格局 - AMD与英伟达在AI芯片市场直接竞争 [3][7] - 英伟达市值达4.4万亿美元远超AMD [7] - 特朗普政府对销往中国芯片征收15%关税 [3] - ROCm软件生态系统与英伟达CUDA存在差距 [19] 技术发展方向 - 人工智能从训练转向推理计算 [18] - 模块化芯片制造方法获得巨大回报 [6] - 医疗保健被视为AI关键应用领域 [22][31] - 预计未来三四年市场规模超5000亿美元 [16] 产业政策与布局 - 支持芯片制造回归美国 [11] - 台积电亚利桑那晶圆厂已运行最新服务器处理器 [12] - 半导体产业对国家安全和经济利益至关重要 [11] - 需要改变追求最低成本的心态 [12] 产品与研发 - 针对内存容量等推理计算关键因素优化 [18] - 拥有AI模型团队进行产品测试 [19] - 通过收购Nod.ai加强软件生态系统 [22] - 微软将在云服务中全面采用AMD芯片 [17]
全球首款热力学计算芯片,正式流片
半导体行业观察· 2025-08-14 09:28
核心观点 - Normal Computing成功流片全球首款热力学计算芯片CN101 专为AI/HPC数据中心设计 利用热力学和物理原理实现远超传统芯片的计算效率 在特定AI任务中能耗效率提升高达1000倍 [2][4][5] - 热力学计算利用噪声和随机性执行计算 适用于非确定性结果的应用场景(如AI图像生成和训练任务) 与传统确定性计算形成鲜明对比 [2][4] - 公司计划通过CN产品线路线图(2026年CN201和2028年CN301)扩展至更复杂的AI模型 包括高分辨率扩散模型和视频传播模型 [6][7] 技术原理与架构 - 芯片基于热力学和概率计算原理 组件始于半随机状态 通过输入程序并读取平衡结果作为解决方案 专用于处理随机性和不确定性的算法 [2][4] - 利用自然动力学(如波动、耗散和随机性)执行计算 通过专有的格点随机游走(LRW)采样系统加速概率计算 适用于线性代数、矩阵运算和贝叶斯推理 [4][5] - 架构设计目标是为AI训练服务器提供多类型计算单元(CPU/GPU/热力学ASIC/量子芯片) 确保每个问题获得最高效解决方案 [2][4] 性能与应用 - CN101针对AI和科学计算关键任务优化 包括大规模线性系统求解和概率计算 在相同能耗预算下可最大化AI计算输出 并实现低延迟高吞吐推理 [4][5] - 热力学计算旨在解决当前AI能效瓶颈 公司称当前AI能力在现有能源架构下发展曲线趋于平缓 而该技术可支持未来几十年训练规模扩大一万倍的需求 [6] - 芯片已进入特性表征和基准测试阶段 结果将指导后续产品开发(CN201和CN301) 以实现中等规模GenAI任务最先进性能及大规模任务数量级提升 [6][7] 行业意义与发展 - 热力学计算代表替代计算技术兴起 以应对硅计算最小尺寸限制和全球AI数据中心需求增长 与硅光子学和量子计算并列前沿方向 [2][6] - 首次流片由小规模工程团队完成 被视为历史性里程碑 可能成为新芯片技术突破浪潮的重要组成部分 [2][6]
这类芯片,博通拿下九成市占,高调回击AMD和英伟达
半导体行业观察· 2025-08-14 09:28
博通在数据中心交换器市场的领导地位 - 博通在云端数据中心以太网络交换器市场占据90%的市占率,长期保持行业龙头地位 [4] - 公司通过差异化产品策略(如Tomahawk、Jericho、Trident系列)满足不同层级需求,巩固技术壁垒 [6] - 2025年第二季网通营收达34亿美元,网通芯片业务同比增长170%,交换器芯片为核心驱动力 [4] AI驱动交换器需求增长 - 2024年数据中心交换器市场规模达180亿美元,未来10年CAGR为5.8% [2] - AI训练需求推动GPU数量激增,平均每10颗GPU需搭配1颗交换器,带动高频宽、低延迟产品需求 [2][12] - 博通最新交换器芯片采用3纳米制程,SUE架构支持数千处理器长距离传输,延迟性能行业领先 [9][20] 竞争对手的挑战与市场格局变化 - 英伟达通过NVLink绑定GPU与交换器出货,可能抢占20%市场份额 [8] - AMD联合苹果、微软等成立UALink联盟,以开放生态挑战博通和英伟达 [8][11] - 博通高调推广SUE开放架构,强调与现有以太网络生态兼容性,应对封闭式方案竞争 [9][12] 技术升级与产品创新 - Jericho 4芯片支持36,000个HyperPort(3.2Tb/秒聚合端口),数据中心互连带宽利用率提升70% [20][21] - 采用台积电3纳米工艺,HBM带宽为前代2倍,支持百万级GPU集群互联 [21][24] - 集成MACsec加密技术,实现线速数据安全传输,预计2026年Q1量产 [24] 行业技术路线争议 - 博通批评英伟达NVLink为伪开放,UALink依赖PCIe架构难满足长距离传输需求 [11][12] - AMD指责SUE非标准协议,博通反驳以太网络传统不定义延迟,强调自身技术优势 [12] - 分析师指出SUE生态相容性将决定博通能否维持以太网络话语权 [13]
屹唐起诉应用材料,索赔9999万
半导体行业观察· 2025-08-14 09:28
诉讼案件核心内容 - 北京屹唐半导体科技股份有限公司指控应用材料公司非法获取并使用其等离子体源及晶圆表面处理核心技术秘密,并在中国境内申请专利披露该技术[3] - 涉案技术为高浓度、稳定均匀的等离子体进行晶圆表面处理,广泛应用于干法去胶、干法蚀刻、表面处理等半导体加工设备[6] - 应用材料公司通过招聘屹唐子公司MTI前员工获取技术秘密,两名员工曾签署保密协议但仍在入职后作为主要发明人提交相关专利申请[7] 技术侵权具体指控 - 应用材料公司涉嫌将使用涉案技术秘密的产品向中国客户推广销售[7] - 屹唐要求停止侵权行为并销毁技术资料载体,停止专利披露行为,禁止制造/销售侵权产品[7] - 要求确认涉案中国专利申请权归属屹唐,并索赔经济损失及合理支出合计9999万元(适用3倍惩罚性赔偿)[7] 公司业务与技术背景 - 主营业务为干法去胶、快速热处理和干法刻蚀设备制造,三类设备均为芯片制造必备流程[7] - 刻蚀设备技术含量仅次于光刻机,属于"卡脖子"领域[7] - 技术主体源于2016年收购的美国MTI公司,为中国资本首次成功跨境收购半导体装备公司[8] 公司经营表现 - 2025年一季度实现净利润2.18亿元,同比增长113.09%[8] - 完成对MTI的全面整合,三项业务技术均为自主研发,覆盖芯片前道工艺中的关键环节[8] - 先进制程芯片制造涉及超1000道工序,屹唐设备应用于技术难度最高的前道工艺[8]
HBM4,箭在弦上
半导体行业观察· 2025-08-14 09:28
HBM技术概述 - HBM已成为AI革命的核心基础设施,通过垂直堆叠内存Die大幅提升带宽和数据传输效率,突破传统内存瓶颈 [2] - 与GDDR和LPDDR相比,HBM迭代速度更快,带宽增长惊人 [2] - 2024年SK海力士和三星合计占据HBM市场90%份额(SK海力士54%,三星39%),美光占7% [2] - HBM4被视为下一代里程碑产品,三大巨头正展开战略性竞赛 [2] 市场竞争格局 SK海力士 - 定位HBM为"近内存",比传统DRAM更接近计算核心,具有更高带宽和更快响应速度 [4] - HBM4带宽比HBM3E提升200%,整体优势提升60%,容量最高达36GB,带宽超2TB/s,能效提升40% [5] - 采用3D TSV堆叠实现高容量,宽通道并行传输实现高带宽,单位比特传输能耗更低 [4] 三星 - HBM带宽持续提升:HBM2(307GB/s)→HBM2E(461GB/s)→HBM3(819GB/s)→HBM3E(1.17TB/s)→HBM4(2.048TB/s) [6] - HBM4采用FinFET工艺,性能提升200%,面积减少70%,功耗减少50% [8] - 推出HCB混合键合技术,支持堆叠层数提升33%,热阻提升20% [9][10] 美光 - 跳过HBM3直接推出HBM3E,成为英伟达H200 GPU供应商 [11] - HBM4计划2026年推出,带宽从HBM3E的1.2TB/s提升至超2TB/s,能效提升超20% [11] - HBM4采用12层堆叠设计,容量36GB [11] HBM技术演进 - 从HBM2到HBM4E,芯片尺寸不断增加(HBM2 121mm²→HBM4E 156.2mm²),功耗从12W增至42.5W [7] - 能效持续提升:HBM2 6.25pJ/bit→HBM3E 4.05pJ/bit [8] - HBM4容量24Gb,带宽2.4TB/s;HBM4E容量32Gb,带宽3.12TB/s [9] - 从标准HBM向定制HBM发展,集成GPU/ASIC功能以提升性能和降低总拥有成本 [16] 市场前景 - 全球HBM收入预计从2024年170亿美元增至2030年980亿美元,CAGR 33% [19] - HBM在DRAM市场收益份额将从2024年18%增至2030年50% [19] - 位出货量从2023年1.5B GB增至2024年2.8B GB,预计2030年达7.6B GB [19] - 晶圆生产量从2023年216K WPM增至2024年350K WPM,预计2030年达590K WPM [20] - HBM每比特成本是DDR的3倍(HBM4将达4倍),但定价是DDR的6倍(HBM4将达8倍),毛利率达70% [20] 制造工艺 - HBM制造需经过前端和后端七大步骤,包括硅刻蚀、TSV铜填充、芯片堆叠等 [14] - 核心发展策略是通过前端工艺改进提升带宽和单Die密度 [14] - 三大供应商采用不同堆叠技术:SK海力士用MR-MUF,三星和美光用TC-NCF [14] - 2026年HBM4/HBM4E可能采用新键合技术,2028年HBM5将采用晶圆到晶圆混合键合 [16]
机器人芯片大爆发?为时过早!
半导体行业观察· 2025-08-13 09:38
物理人工智能发展现状 - 物理人工智能进展比预期缓慢,短期内无法与通用人工智能(GenAI)匹敌 [2] - 摩根士丹利预测2050年人形机器人市场规模达5万亿美元,部署量达10亿台(每10人1台) [2] - 台积电高管预测2030年全球AI机器人市场超350亿美元,10%汽车实现自动驾驶 [2] - 目前全球仅约1000个人形机器人,大部分为原型 [3] 人形机器人发展挑战 - 人形机器人开发难度大,未来10年不会成为重要市场驱动力 [3] - 安全性是关键挑战,操作不当可能导致致命事故 [4] - 技术挑战需克服,安全验证需广泛试验,预计还需十年以上时间 [4] - 特斯拉擎天柱机器人进展缓慢,2024年计划生产1万台但实际效果存疑 [3] 自动驾驶汽车发展 - Waymo在旧金山占据26%拼车市场份额,超过Lyft [5] - 现款Waymo车型总成本14万美元,下一代将降至8.5万美元 [5] - 摩根士丹利预测2030年Waymo营收约25亿美元 [6] - 预计到2035年L3级自动驾驶将成为高端车标配 [7] - 2040年后出生的孩子可能不再需要参加驾驶考试 [9] 工业机器人市场 - 2023年全球工业机器人存量达420万台,新增安装量近40万台 [10] - 2025年工业机器人市场规模预测380-550亿美元,单价约10万美元 [12] - 中国是全球最大工业机器人市场,占2023年新增安装量70% [12] - 预计2035年工业机器人市场规模将达2910亿美元 [12] - 亚马逊已部署100万台机器人,2024年机器人资本支出70-80亿美元 [13] 机器人半导体市场 - 2025年全球汽车半导体市场规模预计510-770亿美元 [6] - 平均每辆汽车半导体成本约600美元,高端车约2000美元 [6] - 预计2035年机器人半导体市场规模70-140亿美元 [15] - 机器人公司倾向使用汽车级处理器和GPU,单价约2000美元 [14] - 英伟达在汽车半导体市场份额仅3-4%,年销售额约20亿美元 [15] 长期市场展望 - 预计2050年人形机器人半导体市场规模可能达1万亿美元 [16] - 未来十年机器人市场规模仍较小,远不及数据中心AI半导体 [16] - 专用机器人(ASR)在未来十年仍将是更经济的替代方案 [4]
复盘HBM的崛起
半导体行业观察· 2025-08-13 09:38
HBM技术优势与特性 - HBM在带宽、密度和能耗之间实现最佳平衡,适用于AI工作负载,结合垂直堆叠DRAM芯片与超宽数据路径[4] - HBM带宽显著高于其他内存类型,HBM3带宽达819.2 GB/s,远超DDR5的70.4 GB/s和GDDR6X的96.0 GB/s[6] - HBM需通过2.5D封装(如CoWoS)实现高布线密度,因I/O数量超1,000条,PCB或基板无法满足要求[6] - HBM直接放置于计算引擎海岸线附近以降低延迟和能耗,但受限于SOC边缘布局,需垂直堆叠提升容量[7] - HBM制造需TSV工艺和凸块处理,导致芯片尺寸大于DDR,位密度较低(HBM3为0.16 Gb/mm² vs DDR4的0.296 Gb/mm²)[7] HBM市场需求与竞争格局 - AI加速器需求推动HBM比特需求大幅增长,NVIDIA预计2027年占据最大份额,其Rubin Ultra单GPU容量达1 TB[8] - Broadcom(TPU/MTIA)、OpenAI、SoftBank和亚马逊成为HBM主要客户,亚马逊直接采购以降低成本[8] - HBM产能转换依赖TSV和凸块工艺增量步骤,需蚀刻机、沉积工具和光学检测设备支持[10] - HBM封装技术中MR-MUF提供更高生产率和散热性能,海力士专有材料优于美光三星的非导电薄膜[13][14] - 封装工艺效率提升,批量回流焊和单次包覆成型比TC-NCF更高效[18] HBM制造挑战与良率问题 - HBM良率受3DIC堆栈复杂度影响,前端良率问题突出,电源分配网络(PDN)设计是关键挑战[19] - 海力士HBM3E通过全方位电源TSV将TSV数量增近6倍,电压降降低最高75%[20] - 美光专注TSV和电源网络,宣称功耗降低30%[22] - HBM故障是GPU故障主因,散热问题显著,所有制造商良率均低于传统内存[24] - 堆叠层数增加导致良率下降(8层99%良率→92%总良率,12层→87%),键合精度需亚微米级[24][25] - 键合设备商Hanmi早期垄断HBM市场,但供应链争端曾威胁SK海力士生产[25][27] HBM技术演进与未来方向 - HBM堆叠高度受JEDEC标准限制(当前720μm),增加层数需更薄芯片和凸块间隙,良率挑战增大[27] - 混合键合(HB)可消除凸块间隙,支持更多DRAM层,但良率和成本挑战高,量产仍需时间[28] - JEDEC将堆叠高度放宽至775μm,延缓HB采用,更高堆叠需逻辑芯片加厚或中介层调整[29] - HBM4的HB应用讨论转向4E,三星最积极推广,海力士美光更谨慎[32] - AI加速器需高带宽支持并行计算,HBM扩展通过三维度实现:更快信号速度、更多层数、更多堆栈[34] - NVIDIA路线图显示HBM容量从A100的80GB增至Rubin Ultra的1024GB,带宽从2.0 TB/s增至32.0 TB/s[36] HBM在AI工作负载中的应用与瓶颈 - AI模型增长遵循"内存帕金森"动态,HBM容量提升促使模型参数、上下文长度和KVCache占用同步增加[37] - LLM推理中权重和KVCache均驻留HBM,带宽不足导致GPU等待时间超过计算时间,推理受内存限制[38] - 上下文长度增长(常超数十万token)加剧内存压力,需低批量大小服务,但影响经济效益[39] - 强化学习(RL)依赖大量推理生成数据,KVCache卸载至DDR或NVMe可缓解HBM压力[40] - Nvidia Dynamo框架管理KVCache分层存储,常用数据存HBM,次常用存DDR,极少用存NVMe[41] - 工作负载特性决定DDR或NVMe选择,高频循环数据适合DDR,因NAND写入容限有限[42] - 训练阶段权重、激活值和梯度均通过HBM,但RL兴起使训练更接近推理模式[43]
驰拓科技MRAM将重磅亮相2025深圳国际电子展
半导体行业观察· 2025-08-13 09:38
MRAM技术优势 - MRAM利用磁性材料磁化方向导致的电阻高低表示二进制数据,相比传统电荷存储的SRAM和DRAM具有高速、低功耗、高擦写、抗辐射、高可靠等优点 [1] - 驰拓科技MRAM产品在125℃高温下可保持数据十年以上,工作温度范围覆盖-40~+125℃,支持超过万亿次重复写入,大容量阵列良率达到95% [1] - 产品分为嵌入式eMRAM和独立式MRAM两类 [1] 嵌入式eMRAM应用 - eMRAM可替代MCU/SoC中的eFlash,突破eFlash在28/22nm工艺节点的微缩极限,可延展至28nm及更先进工艺 [2] - 具有类似DRAM的读写速度、闪存的非易失性、匹配SRAM的接口特性和优良抗辐照特性 [2] - 适用于工控、汽车电子、身份认证、智能穿戴等高可靠应用场景 [2] - 公司正联合IP合作伙伴和MCU/SoC厂商打造eMRAM生态链,推动其在MCU/SoC中的广泛应用 [2] 独立式MRAM产品 - 独立式MRAM按容量、接口、封装分为多个系列,已在工控、电力、计量等行业头部用户中应用 [5] 下一代SOT-MRAM技术 - 公司在SOT-MRAM研究处于国内领先水平,2024年IEDM大会上首次提出适合大规模制造的无轨道垂直型SOT-MRAM器件结构 [7] - 该技术突破标志着公司具备Mb级SOT-MRAM演示芯片制造能力,为下一代高速、高密度、高可靠MRAM奠定基础 [7] 公司概况 - 建有12英寸MRAM量产中试线,是国内首家实现MRAM量产的企业 [8] - 拥有MRAM设计制造全套关键技术,可提供90/55/40/28nm多个工艺节点的芯片定制、工艺研发、流片、测试等全方位服务 [8] 参展信息 - 确认参展2025年深圳国际电子展(8月26-28日,展位1号馆1P26),将展示MRAM最新成果 [1]
台积电退出六英寸代工
半导体行业观察· 2025-08-13 09:38
台积电退出6吋晶圆制造业务 - 台积电将在2027年结束最后一座6吋厂营运,将产线转投入先进封装业务 [2] - 公司声明未来两年逐步退出6吋晶圆制造,并整合8吋产能以提升效益,不影响财务目标 [2] - 电源IC设计客户将面临转单潮,台积电子公司世界先进可能优先受惠 [2] - 台积电在台湾仅剩最后一座6吋厂,此前已整合三座8吋厂,显示资源向先进制程/封装集中 [3] 全球硅片厂商缩减小尺寸晶圆产能 - 德国Siltronic AG计划2025年7月停止生产直径小于150mm的晶圆,因需求转向大尺寸晶圆 [5] - Siltronic的SD晶圆业务近年收益显著下降,300mm晶圆年增长率达6% [5] - 日本SUMCO重组宮崎工厂,200mm生产2026年底结束,125/150mm晶圆因盈利不足撤出 [6] - SUMCO重组导致2024财年非经常性损失58亿日元(含库存减值46亿日元) [6] 行业技术转型与竞争格局 - 技术趋势推动300mm晶圆成为主流,小尺寸晶圆经济效益丧失 [9] - 国内厂商如华润微(6吋产能23万片/月)、士兰微加速布局,加剧6吋市场竞争 [10] - SiC领域Wolfspeed/意法半导体/罗姆已量产8吋晶圆,Wolfspeed此前关闭2座6吋厂并裁员20% [9] - 大陆厂商向8/12吋扩张,进一步挤压国际大厂市场份额 [10]
AI推理爆发前夜,英伟达打出另一张“王牌”
半导体行业观察· 2025-08-13 09:38
核心观点 - AI网络成为数据中心转型的核心驱动力,推动"AI工厂"和"AI云"的崛起,将原始数据转化为实时智能与解决方案 [1] - 英伟达凭借Spectrum-X以太网平台和InfiniBand技术,在AI网络市场占据领导地位,数据中心以太网交换机收入季度环比增长183.7%,市场份额达12.5%(整体)和21.1%(数据中心细分) [2] - 公司市值飙升至4万亿美元的核心支撑来自GPU互连技术(AI网络),而非单一GPU硬件 [4][5] - 行业正从AI训练时代转向推理时代,推理市场对网络延迟、带宽和同步机制的要求更高,英伟达通过InfiniBand、Spectrum-X、BlueField SuperNIC/DPU等技术构建全栈解决方案 [10][11][12][13][14] - 未来竞争焦点转向系统级协同效率,英伟达通过AI Fabric、CPO光电封装等技术优化推理集群的能耗与扩展性 [13][14][17] AI工厂与AI云 - AI工厂是处理海量数据并生成智能的超级计算机/数据中心,类比工业制造流程,将数据转化为解决方案 [1] - AI云提供弹性可扩展的AI服务,用户无需自建基础设施即可调用模型与算力 [1] - 传统数据中心升级为"制造智能"的核心设施,老旧网络架构难以满足需求 [1] 英伟达网络技术优势 - **InfiniBand技术**:专为高性能计算设计,支持800Gb/s带宽、RDMA和网络计算卸载,显著降低延迟与拥塞,被微软Azure、OpenAI等用于大模型训练 [5][6][9] - **Spectrum-X以太网平台**:针对AI优化传统以太网,集成RDMA、动态路由和性能隔离技术,实现端到端低延迟与多租户互不干扰 [7][8] - **市场表现**:Spectrum-X推动英伟达数据中心以太网收入季度增长183.7%,市场份额跃居全球前三 [2] 战略布局与收购 - 2020年以69亿美元收购Mellanox,获得InfiniBand和Spectrum以太网技术,补齐GPU互连能力 [4] - 创始人黄仁勋与以太网发明者梅特卡夫达成共识:GPU互连技术(而非单一GPU)是公司核心竞争力 [4][16] 推理时代的技术突破 - **分布式推理**:InfiniBand与Spectrum-X提供RDMA和智能拥塞控制,满足多节点并行推理需求 [11] - **P-D分离优化**:NVLink/NVSwitch实现GPU间高速互连,Grace CPU降低CPU-GPU数据搬运延迟 [12] - **KVCache挑战**:BlueField SuperNIC加速GPU间KV共享,DPU优化CPU-GPU数据调度 [12] - **大型推理集群**:AI Fabric架构支持动态路径选择与GPU级资源调度,CPO光电封装降低30%-50%网络能耗 [13][14] 未来趋势 - 推理市场潜力远超训练,但需解决多节点扩展、能耗和稳定性问题 [10][13] - 系统级竞争成为关键,英伟达通过全栈网络技术(硬件+软件)构建生态壁垒 [16][17] - 网络价值遵循梅特卡夫定律,连接规模决定平台上限 [16]