Workflow
半导体行业观察
icon
搜索文档
Blackwell和Rubin芯片也将卖给中国?
半导体行业观察· 2026-01-07 09:43
文章核心观点 - 英伟达首席执行官黄仁勋表示,公司计划将其下一代Blackwell和Rubin芯片“及时”推向中国市场,以应对日益激烈的竞争并保持其全球竞争力 [1] - 尽管公司正在等待美国政府对上一代H200芯片的出口批准,并面临中国监管的不确定性,但公司对中国市场的长期潜力和客户需求持积极态度,并已启动H200的生产供应链 [1][2] - 由于美国出口限制和中国反垄断指控,英伟达在中国AI芯片市场的份额已从95%暴跌至零,公司正通过调整产品策略和寻求监管批准来努力重返市场 [3] 公司战略与市场展望 - 首席执行官黄仁勋主张公司应保持市场竞争力,并“随着时间的推移”继续在中国发布新产品,包括Blackwell和Rubin世代芯片 [1][2] - 公司认为,为了在中国保持竞争力并为市场做出贡献,必须参与竞争并不断提升技术 [2] - 公司已加大力度为中国市场生产H200芯片,供应链已启动,产品正在生产线上源源不断地供应 [2] - 公司预计将通过客户采购订单来获得中国政府对其销售H200芯片的默许,而非明确的官方批准 [2][3] 产品与监管动态 - 公司正在等待美国政府批准向中国销售H200芯片,首席财务官表示政府正在“积极努力”处理出口许可证 [2] - 此前,在拜登政府收紧限制后,H100和H200于2024年被禁止在中国销售 [3] - 作为回应,公司曾为中国市场开发了H100的缩减版芯片H20,但在2024年4月,特朗普政府要求该降级芯片的出口也需获得许可 [3] - 2024年8月,公司同意向美国政府支付H20销售收入的15%,作为向中国出售降级芯片的交换条件 [3] - 2024年9月,北京方面指控英伟达违反了中国的反垄断法 [3] - 黄仁勋在CES 2026上公布,下一代Rubin芯片已“全面投产” [3] 市场竞争环境 - 公司正面临来自中国竞争对手日益激烈的竞争,包括华为等科技巨头和一些规模较小的初创公司 [1] - 黄仁勋曾称华为是“强大的竞争对手” [1] - 首席执行官指出,中国涌现出的大量创业公司及其成功上市,体现了中国科技行业的活力和能力 [2] - 公司在中国AI芯片市场的份额已从95%暴跌至零 [3] 客户需求与订单预期 - 黄仁勋表示,在中国,客户对H200的需求“很高。非常高” [2] - 公司正在敲定美国出口许可证的最后细节,并预计在华盛顿批准后“很快”就会收到来自中国的采购订单 [2][3] - 最终的市场准入和销售规模,将取决于北京方面是否允许以及允许销售多少 [2]
壁仞科技港股鸣锣:千亿市值背后,资本市场在买什么?
半导体行业观察· 2026-01-07 09:43
文章核心观点 - 资本市场对壁仞科技的高估值,核心是押注其在复杂国际环境下,通过Chiplet等工程化路径和系统级交付能力,构建一条可持续、自主可控的国产算力供给链,以满足中国AI产业迅猛增长的需求[1][4][23] 行业背景与市场格局 - **全球及中国智能计算芯片市场高速增长**:全球市场规模从2020年的66亿美元快速扩张至2024年的1190亿美元,复合年增长率高达106%,预计到2029年将进一步增长至5857亿美元,2024-2029年CAGR为37.5%[2]。中国市场规模预计于2029年达到2012亿美元,2024-2029年CAGR高达46.3%,显著高于全球平均水平[3] - **市场高度集中,国产厂商处于早期阶段**:2024年中国智能计算芯片市场中,前两大参与者合计占据94.4%的市场份额,其余市场由超过15家规模化参与者分散占据[3]。在GPGPU子市场中,前两大参与者合计市占率高达98.0%[4]。壁仞科技在中国智能计算芯片整体市场与GPGPU子市场中的市占率分别为0.16%与0.20%,表明其潜在成长空间巨大[4] - **算力供给成为战略核心问题**:在AI时代,GPU演变为关键基础设施,其可获得性、可持续性与可控性成为系统性问题,中国必须建立自己的算力供给能力[1][4] 壁仞科技的技术与产品路径 - **采用Chiplet技术作为核心工程路径**:壁仞是国内首家采用2.5D芯粒技术封装双AI计算裸晶的公司,以应对先进制程受限、成本高企等现实约束[5][6]。其BR166产品通过芯粒技术将两颗BR106计算裸晶与四颗DRAM集成于同一封装,关键指标相较于单颗BR106实现了约2倍提升[6] - **强调高速互连能力**:BR166中两颗BR106裸晶之间通过D2D互连实现高速数据交换,双向带宽最高可达896GB/s,为大模型训练提供必要的内部带宽支撑[7] - **构建“1+1+N+X”平台化战略**:以一个自主GPGPU架构、一个统一软件平台为核心,向下衍生多款芯片,向上形成覆盖PCIe板卡、OAM、服务器乃至大规模GPU集群的完整硬件产品组合,并配套自研软件平台与集群管理能力,向客户交付整体解决方案[10][12][13][14] - **拥有扎实的研发基础与产品规划**:截至2024年12月31日,壁仞在中国GPGPU公司中拥有最多的发明专利申请数,其产品在MLPerf Inference 2.1竞赛的特定组别中获得量产芯片第一名[11]。公司已完成下一代旗舰芯片BR20X的架构设计,预计2026年商业化,并同步规划BR30X与BR31X产品线,预计2028年进入商业化阶段[19][21] 公司的商业化进展与财务表现 - **收入呈现高速增长**:公司智能计算解决方案自2023年开始产生收入,金额为6200万元。2024年收入大幅增长至3.368亿元,同比增长超过4倍。2025年上半年收入为5815万元,较2024年同期的3930万元继续增长[16] - **在手订单提供收入可见性**:公司手握五份框架销售协议及24份销售合同,总价值约为人民币12.407亿元[16] - **客户结构优质**:收入增长由特定行业头部企业持续采购推动,截至2025年12月15日,公司已向九家财富中国500强企业提供解决方案,其中五家亦为财富世界500强企业[17] - **毛利率变化反映产品结构演进**:2023年及2024年分别录得毛利4740万元及1.792亿元,对应毛利率分别为76.4%及53.2%。2023年高毛利源于定制化服务器集群,2024年毛利率53.2%与行业平均值基本持平,标志产品进入大规模通用市场[18] - **持续高额研发投入**:2022年、2023年及2024年,研发支出分别为人民币10.18亿元、8.86亿元及8.27亿元,研发费用占同期总经营开支比例分别高达79.8%、76.4%与73.7%。2025年上半年研发投入为5.72亿元,占经营开支比例达79.1%[19] - **建立正向商业循环**:公司已初步完成从“技术研发型公司”向“系统交付型公司”的关键转变,后续业绩核心变量取决于交付规模能否持续放大[21]
AMD最强的两颗芯片,首次曝光
半导体行业观察· 2026-01-07 09:43
AMD在CES 2026展示的新产品与技术 - 公司在CES 2026上首次公开展示了下一代Venice系列服务器CPU和MI400系列数据中心加速器[1] - 公司还宣布MI400系列将新增第三款产品MI440X,与MI430X和MI455X共同组成该系列,MI440X专为8路UBB机箱设计,可直接替代MI300/350系列[5] - 公司发布了Venice-X,这很可能是Venice的V-Cache版本,如果每个32核心CCD拥有高达384MB的L3缓存,整个芯片的L3缓存总量可达3GB[6] - Venice和MI400系列都将于2026年晚些时候发布[6] Venice服务器CPU的架构与规格 - Venice处理器采用了更先进的封装方式,类似于Strix Halo或MI250X,并且似乎配备了两个I/O芯片,而不是之前EPYC CPU的单个I/O芯片[1] - Venice芯片包含8个CCD,每个CCD有32个核心,因此每个封装最多可容纳256个核心[2] - 每个CCD的硅面积约为165平方毫米,每个Zen 6核心加上4MB的L3缓存大约占5平方毫米[2] - 每个I/O芯片的面积约为353平方毫米,两个I/O芯片总面积超过700平方毫米,比之前EPYC CPU的I/O芯片面积(约400平方毫米)有显著提升[2] - 封装两侧各有4个小芯片,共8个,它们可能是结构硅片或深沟槽电容芯片,旨在改善CCD和I/O芯片的供电[2] - Venice采用2nm工艺技术制造,包含多达256个Zen 6核心[16] MI400系列加速器的架构与规格 - MI400加速器封装尺寸巨大,包含12颗HBM4显存芯片和“12颗2纳米和3纳米制程的计算和I/O芯片”[4] - 它似乎和MI350一样有两个基础芯片,但基础芯片顶部和底部似乎还有两个额外的芯片,很可能用于封装外I/O,例如PCIe、UALink等[4] - 两个基础芯片的面积约为747平方毫米,而封装外的I/O芯片的面积约为220平方毫米[4] - 很可能共有8个计算芯片,每个基础芯片上集成4个,计算芯片组的面积可能在140平方毫米到160平方毫米之间[4] - 将于2026年推出的Instinct MI455X GPU插槽拥有3200亿个晶体管,比MI355X增加了70%,采用2纳米和3纳米工艺,并配备432GB的HBM4堆叠式显存[14] - MI455X的性能比MI355X高出十倍[16] Helios AI机架系统 - 公司即将推出的下一代机架式服务器平台Helios,是为Yotta级计算时代而设计的[10] - 它采用双宽设计,基于开放计算项目(OCP)的开放式机架宽(ORW)标准,重量接近7000磅[10] - Helios将于2026年上市,搭载最新的AI GPU Instinct MI455X和下一代Epyc “Venice”服务器CPU[10] - 每个液冷托架包含四个MI455X GPU、Venice CPU以及Pensando Vulcano和Salina网络芯片[16] - 每个Helios机架拥有超过18,000个CDNA5 GPU计算单元和超过4,600个Zen 6 CPU核心,可提供高达2.9 exaflops的性能[18] - 每个机架包含31 TB的HBM4内存、260 TB/s纵向扩展带宽以及43 TB/s的聚合横向扩展带宽[18] - 数万个Helios机架可以扩展到整个数据中心[18] 公司战略与市场定位 - 在人工智能时代,公司正寻求在由行业领头羊英伟达主导的GPU系统市场中为自己开辟更大的空间[7] - 公司正努力将其Instinct GPU打造成英伟达的有力竞争对手[7] - 公司最近宣布与OpenAI建立合作关系,此前还与Oracle等其他AI领域的公司建立了合作[7] - 公司CEO指出人工智能领域对计算能力的需求每年增长超过四倍,并强调公司是最有能力提供这种计算能力的公司,能够提供GPU、CPU、NPU和系统架构[8] - 公司CEO强调构建兆级人工智能基础设施需要领先的计算能力、开放式模块化机架设计、高速网络连接以及易于部署[8] - 公司正在向英伟达发起挑战,其产品路线图表明它将继续这样做[18] 未来产品路线图 - 公司公布了未来两年的数据中心GPU路线图,首先是将于2026年推出的Instinct MI455X[14] - 2027年,公司将发布基于下一代CDNA 6架构的MI500系列GPU,采用2纳米制程工艺和HBM4E内存[16] - 这意味着公司在四年内(从MI300系列到MI500系列)实现了AI性能1000倍的提升[16]
半导体,最新预测
半导体行业观察· 2026-01-07 09:43
文章核心观点 - 人工智能革命仍在早期阶段,半导体是其中创新最迅猛的领域之一,2026年芯片和AI加速器领域将迎来关键发展趋势 [1] 2026年半导体与AI加速器发展趋势 1. 定制芯片(ASIC)与系统竞争 - 2026年将成为ASIC加速的关键节点,预计自主研发的芯片出货量将超过通用GPU(GPU)[1] - 超大规模数据中心运营商为保持竞争力将超额投入,定制芯片成为维持利润的唯一可行途径 [1] - 谷歌TPU v7、亚马逊Inferentia/Trainium、微软Maia/Cobalt、Meta MTIA以及OpenAI与博通联合设计的加速器都将达到量产规模,从而降低对英伟达的依赖 [1][3] - 竞争焦点将从芯片转向系统,浮点运算性能不再是唯一标准,互连、内存和编译器将决定最终性能表现 [1] - NVLink Fusion和定制交换机ASIC正在重塑集群规模的拓扑结构,软件锁定(编排和编译器)将成为新的护城河 [1] 2. 半导体制造技术演进 - 半导体行业正经历指数级变革,驱动力包括复杂性增长、新兴技术和全球需求变化 [2] - 预计到2025年,先进工艺节点将达到2纳米,研究目标是实现埃级精度 [2] - 2026年,3D封装、量子计算和人工智能加速器等创新技术将塑造下一代芯片 [2] - 人工智能驱动的虚拟孪生仿真和基于模型的系统工程(MBSE)方法将使企业能够以数字化方式优化设计、面向可制造性进行设计、减少对物理原型的依赖并提高系统性能 [2] 3. 算力获取模式转变 - 随着对推理级GPU计算的需求激增,企业将不再自行管理集群,而是采用按需GPU服务 [2] - 无服务器GPU模型将实现动态扩展,降低运维成本,并使高性能计算的获取更加普及,这种转变将成为各种规模企业开展生成式AI(GenAI)工作负载的标准基础设施方案 [2] 4. 市场格局与成本趋势 - 英伟达在AI芯片市场占据主导地位,市场份额估计约为90%,鉴于其生态系统和软件栈,在2026年仍将占据主导地位 [2][3] - AMD在MI400系列发布和ROCm成熟后可能会变得更具竞争力,但能否成功执行其战略尚待观察 [3] - GPU价格呈下降趋势,但AI工作负载量不断增长,AI模型规模也越来越大,这意味着AI基础设施总成本将继续攀升 [3] - 2026年AI定价最终将取决于供需平衡,尽管硬件成本下降,但获取GPU供应仍然不容易,这直接影响AI定价 [3] - HBM和GPU供应紧张将推高云AI的价格,欧洲方面已暗示将在2026年初迎来价格上涨 [1] 5. 互连技术成为关键 - 高速互连对于在现代超大规模数据中心中实现AI/机器学习工作负载所需的速度和密度至关重要 [3] - 数据中心内主要计算单元(如GPU和AI加速器)之间的通信需要结合高速背板和板对板解决方案,这些解决方案专为224Gbps PAM-4速度设计,同时还需要高速可插拔I/O连接器以支持高达400/800Gbps的聚合速度,并提供通往1.6T的路径 [3][4] - 共封装光器件(CPO)对于在AI驱动架构中处理GPU间的互连至关重要,它直接在芯片边缘提供超高带宽密度,从而在降低功耗和电信号损耗的同时实现更高的互连密度 [4] - CPO是专门为满足超大规模数据中心和AI/ML集群的巨大功率和带宽需求而开发的,预计未来一年对其关注度将进一步提升 [4] 6. 市场规模预测 - 2025年全球半导体销售额增长22.5%,达到7720亿美元 [5] - 世界半导体贸易统计(WSTS)预测,到2026年全球半导体销售额将增长26%,达到9750亿美元 [5] - 部分分析师预测全球芯片销售额年均增长率将达到30%,超过1万亿美元 [5] - 到2030年,人工智能数据中心市场规模可能增长至1.2万亿美元,年增长率达38% [5] - 其中大部分增长(9000亿美元)将来自人工智能加速芯片,例如图形处理器(GPU)和定制处理器 [5]
DRAM价格,再涨70%
半导体行业观察· 2026-01-06 09:42
核心观点 - 受AI基础设施建设和需求强劲推动,三星电子与SK海力士大幅上调服务器DRAM报价,行业进入“记忆体超级荣景”,公司营业利益预期大幅增长 [1] - 韩国半导体产业结构存在失衡风险,记忆体半导体出口强劲增长,但系统半导体出口预计下滑,业界呼吁发展系统半导体以应对未来景气波动 [1][2] 产品价格与市场动态 - 三星电子与SK海力士对微软、AWS、Google等云端业者的服务器DRAM报价,较去年第4季调涨60-70% [1] - 市场预期客户将接受涨价,因建置AI基础设施的支出被视为“完全可以承受”,且客户急于将推论型AI变现,对涨价的反弹并不强烈 [1] 公司财务与市场预期 - 在“记忆体超级荣景”带动下,预计今年三星电子与SK海力士的营业利益将分别增加1.5倍至2倍,双双上看约150兆韩元(约1,000亿美元) [1] - 花旗、摩根士丹利等投行为反映DRAM的“超级多头”,大幅上调了两家公司的目标价与今年营业利益预测 [1] 半导体出口与产业结构 - 韩国贸易协会预估,今年韩国记忆体半导体出口预期年增9.6%,由1,140亿美元攀升至1,250亿美元 [1] - 同期,韩国系统半导体出口今年预估下滑2.6%,至482亿美元,引发对半导体产业结构失衡的疑虑 [1] - AI的普及推升了HBM等高附加价值半导体及传统记忆体晶片需求,促使本土业者将产能与设备转向相关领域 [2] 系统半导体发展现状与挑战 - 系统半导体负责逻辑运算与控制,占全球半导体市场逾60%,且需求预料遽增,较不易受景气波动影响 [2] - 以记忆体为核心的整合设备制造商在韩国半导体市场的占比,已由2021年的70%降至2024年的56% [2] - 同期,无厂半导体市场占比由约30%升至45%左右,但韩国无厂半导体业者的销售额仅占全球市场的约1% [2] - 观察人士指出,在记忆体半导体景气处于上升循环之际,更应发展系统半导体,以为不可避免的景气下行做准备 [2]
革命性的太赫兹传感器,正式亮相
半导体行业观察· 2026-01-06 09:42
文章核心观点 - 波士顿初创公司Teradar推出首款旗舰级太赫兹传感器Summit,旨在结合雷达与激光雷达的优点,填补现有传感器在远程、高分辨率及全天候性能方面的空白,目标于2028年应用于量产汽车,支持高级驾驶辅助乃至自动驾驶功能 [1][10][12] 公司技术与产品 - 产品名为Summit或模块化太赫兹引擎,是首款商用、远程、高分辨率的太赫兹传感器,采用全固态芯片设计,无移动部件 [1][4][10] - 技术利用电磁波谱中尚未充分开发的太赫兹频段,结合了雷达的穿透性、无移动部件和激光雷达的高分辨率优点 [1][4] - 传感器分辨率比传统汽车雷达提高20倍,能在雨雾等恶劣天气下保持性能,并支持远距离探测,适用于高速公路自动驾驶场景 [11][12] - 采用模块化设计,可根据从L1到L5的不同自动驾驶需求进行定制,预计成本在几百美元,介于雷达和激光雷达之间 [7][8][12] - 传感器可安装在保险杠后,无需重新设计车身即可替换现有雷达位置 [12] 公司融资与合作进展 - 公司近期完成了1.5亿美元的B轮融资,投资者包括Capricorn Investment Group、洛克希德·马丁风险投资部门、Ibex Investors以及专注于国防的VXI Capital [2][5] - 已与来自美国和欧洲的五家顶级汽车制造商以及三家一级供应商展开合作,进行技术验证和付费开发项目 [1][5][12] - 目标赢得合同,使传感器应用于2028款车型,这意味着产品需在2027年准备就绪 [1][5] 行业背景与市场机会 - 汽车传感器行业处于关键时刻,美国激光雷达公司Luminar因合同破裂及中国低成本竞争于去年12月申请破产保护 [2] - 中国激光雷达市场应用强劲,公司和赛科技计划在2025年前生产超过100万个激光雷达传感器 [2] - 部分汽车制造商如Rivian仍计划在其新款SUV中集成激光雷达,表明市场对先进传感器技术存在持续需求 [3] - 行业存在技术路线分歧,特斯拉推崇纯视觉方案,而Waymo等公司坚持多传感器融合,Teradar的技术旨在弥合这一鸿沟 [13] 公司发展愿景与潜在应用 - 公司近期目标是为汽车高级驾驶辅助和自动驾驶系统提供支持,长期愿景是让每辆车(不仅是豪华车)都能拥有激光雷达级别的感知能力 [7][12] - 太赫兹传感器技术也有潜在应用与国防、安全和工业领域,这在其融资方背景中有所体现 [2][9][13] - 斯坦福大学教授评价该技术为汽车感知的“变革性飞跃”,公司估计广泛采用该技术每年或可在全球预防超过15万起致命事故 [12]
TI发布TDA5:算力高达1200TOPS
半导体行业观察· 2026-01-06 09:42
公众号记得加星标⭐️,第一时间看推送不会错过。 日前,TI发布了使用5nm工艺打造的自动驾驶汽车的"大脑"TDA5,也是德州仪器(TI)全新解决方案 的核心。应用这款芯片,即可构建"边缘AI"环境,将每秒运算速度从10万亿次(1 TOPS;1 TOPS为 每秒1万亿次运算)提升至高达1200万亿次(1200 TOPS)。TI表示,这使得车辆即使在面对复杂多变的 道路环境时,也能快速分析数据并做出响应,从而实现L3级自动驾驶。 能效也是一大优势。该芯片每瓦功耗 (W) 可支持 24 TOPS 的计算能力。德州仪器 (TI) 处理器产品 机构部门负责人(副总裁)Roland Schupfli 表示:"对于电动汽车而言,单次充电续航里程是一项关 键指标,因此需要功耗更低、性能更高的芯片。"他补充道:"TDA5 拥有业界最佳的能效。" 为了实现低功耗、高性能的 TDA5 芯片,德州仪器集成了其神经处理单元 (NPU) 产品 C7。副总裁 Schupfli 表 示 : " 我 们 在 保 持 功 耗 相 近 的 情 况 下 , 实 现 了 比 上 一 代 产 品 高 出 12 倍 的 AI 计 算 性 能。"他还补充道 ...
首款HBM4 GPU,全面投产
半导体行业观察· 2026-01-06 09:42
英伟达下一代AI芯片Rubin与Vera CPU发布 - 英伟达在CES 2026期间宣布,其下一代Rubin AI芯片已“全面投产”,并将于2026年下半年上市 [1] - 公司同时正式发布了下一代AI数据中心机架级架构Vera Rubin,由Vera CPU、Rubin GPU等六种芯片协同设计而成 [6] - 首席执行官黄仁勋强调,公司必须每年推进计算技术进步,并计划每年推出新一代人工智能超级计算机 [1][3] Rubin GPU性能规格与提升 - Rubin GPU的推理计算性能是Blackwell的5倍,训练计算性能是Blackwell的3.5倍 [2] - 在处理NVFP4数据时,Rubin可提供50 petaflops的推理性能,而Blackwell最高为10 petaflops [2] - Rubin的训练速度提升了250%,达到35 petaflops [2] - 与Blackwell相比,Rubin的推理令牌成本最多可降低10倍,训练令牌成本最多可降低四分之一 [2][10] - Rubin架构包含3360亿个晶体管,并集成了新一代HBM4内存,数据传输速度高达每秒22 TB,是Blackwell的2.8倍 [2][3][11] - 每个Rubin GPU配备8个HBM4显存堆栈,提供288GB容量和22 TB/s带宽 [7] - Rubin的Transformer Engine基于新设计,具备硬件加速自适应压缩功能以提升性能 [2] Vera CPU性能规格 - Vera CPU采用88个定制的Olympus Arm核心,并支持“空间多线程”技术,可同时运行多达176个线程 [8][12] - 每个Vera CPU可寻址高达1.5 TB的LPDDR5X内存,内存带宽高达1.2 TB/s,容量是上一代Grace的三倍 [8][12] - 用于连接Vera CPU与Rubin GPU的NVLink C2C互连带宽翻倍,达到1.8 TB/s [8] 系统级产品与扩展方案 - Vera Rubin NVL72机架可集成36个Vera CPU和72个Rubin GPU [12] - 该机架配备9个NVLink 6交换机,总纵向扩展带宽可达260 TB/s,每个交换机拥有28 TB/s带宽,每个GPU的交换矩阵带宽提升至3.6 TB/s [7] - 公司还发布了用于横向扩展的高速网络新产品,包括ConnectX-9 SuperNIC、BlueField-4 DPU和集成了光模块的Spectrum-6以太网交换机 [8][13] - 推出了“DGX SuperPOD with DGX Vera Rubin NVL72”,由八块Vera Rubin NVL72组成,可使用256个Vera CPU和512个Rubin GPU [14] - 面向OEM厂商的设计包括“HGX Rubin NVL8”(集成八个Rubin模块)和专为x86处理器设计的“DGX Rubin NVL8” [13] 生产、上市与合作伙伴 - Rubin系列芯片已经“全面投产”,并将于2026年下半年提高产量 [3] - 微软Azure和CoreWeave将成为首批在2026年下半年提供由Rubin支持的云计算服务的公司之一 [3] - Vera和Rubin将通过四大云服务提供商(AWS、谷歌云、微软Azure和Oracle云基础设施)以及戴尔科技、HPE、联想和超微等OEM提供 [14] - OpenAI、Anthropic和Meta等人工智能模型开发公司已经宣布了他们的采用计划 [14] 市场背景与公司展望 - 黄仁勋表示,即使没有中国或其他亚洲市场,公司预计到2026年,其最先进的Blackwell AI芯片和Rubin的“早期产能提升”也将带来5000亿美元的收入 [5] - 公司认为人工智能的未来将主要体现在物理世界中,并在CES上宣布与比亚迪、LG电子和波士顿动力公司等制造商、机器人制造商和汽车制造商达成合作 [5] - 黄仁勋称“机器人领域的ChatGPT时刻已经到来”,物理人工智能的突破正在解锁全新应用 [5] 行业面临的挑战 - 整个行业正陷入零部件短缺困境,尤其是尖端DRAM内存,全球只有美光、SK海力士和三星三家公司能够生产 [16][17] - DRAM短缺可能导致英伟达五年来首次在CES上未发布新的消费级GPU,打破了连续五年发布新款GPU的惯例 [15][16] - 对通用人工智能(AGI)的渴求促使公司制定了超出当前供应链承载能力的计算目标,AI客户愿意支付更高利润进一步加剧了消费级市场的供应紧张 [17]
WiFi 8芯片,巨头刚刚发布
半导体行业观察· 2026-01-06 09:42
文章核心观点 - 联发科在CES 2026上发布Filogic 8000系列芯片,旨在为即将到来的Wi-Fi 8生态系统提供动力,其核心目标并非单纯提升峰值速度,而是专注于提升实际应用中的可靠性、低延迟和连接稳定性 [1][2][8] - Wi-Fi 8(IEEE 802.11bn)被定位为“超高可靠性”一代,旨在满足人工智能时代对低延迟、稳定连接的严苛需求,并应对日益拥挤的无线环境 [1][2][8] - 尽管Wi-Fi 8标准预计在2028年才正式获批,但行业已提前行动,联发科表示首批Filogic 8000芯片将于2026年晚些时候交付客户,这标志着Wi-Fi技术一次可能带来实际体验变革的演进 [5][6][11] Wi-Fi 8的技术定位与演进逻辑 - Wi-Fi 8的演进重点从追求峰值速度转向解决实际应用痛点,如稳定性、响应速度以及在频谱拥挤、网络拥堵或移动时的连接稳定性 [1][6] - 与Wi-Fi 7相比,Wi-Fi 8的改进意义在于解决日常使用中的延迟峰值和断线问题,旨在使无线网络在可预测性和响应速度上更接近有线以太网 [6] - 该技术专为现代数字化和人工智能驱动环境优化,旨在支持更复杂的应用、沉浸式体验以及超可靠的多千兆连接 [2][8][10] 联发科Filogic 8000系列芯片的发布与意义 - Filogic 8000系列是首批旨在推动Wi-Fi 8生态的芯片平台之一,定位为基础平台,将贯穿从网关/企业接入点到各类客户端设备的整个连接堆栈 [1][7][8] - 该系列芯片将面向采用Wi-Fi 8技术的高端和旗舰设备,首款芯片组预计于2026年晚些时候交付客户 [11] - 此次发布彰显了公司在无线连接领域的领先地位,并保持了与Wi-Fi 7时代相同的行业领先节奏 [8][10] Wi-Fi 8的关键技术创新与优势 - **多AP协调**:通过协同波束成形、协同空间复用和多AP调度等功能,使多个接入点能智能协同工作,减少干扰,提高整体效率,带来更流畅的连接和更可预测的服务质量 [2][8] - **频谱效率与共存**:采用动态子带操作、非主信道接入和设备内共存等技术,帮助设备更有效地共享拥挤的频谱 [9] - **覆盖范围扩展**:引入增强型远距离和分布式音调资源单元技术,提高上行链路性能,降低延迟,提升AI性能,并实现无缝漫游 [9] - **时延与可靠性优化**:通过更智能的数据速率自适应和聚合PPDU等功能,为XR、云游戏和工业自动化等实时应用提供稳定、低延迟的性能 [9] 市场应用与行业影响 - Wi-Fi 8的高可靠性和低延迟特性对AR/VR、云游戏、工业自动化及各类AI驱动应用至关重要 [2][8][9] - 联发科每年出货超过20亿台联网设备,并与德国电信、Airties等合作伙伴紧密合作,致力于引领Wi-Fi 8在各种应用领域的普及 [10][11] - 行业组织(Wi-Fi联盟)认为,联发科作为首批体验Wi-Fi 8解决方案的公司之一,展现了行业的发展势头,其贡献将确保Wi-Fi能够满足全球生态系统的需求 [10]
3D NAND,靠它了
半导体行业观察· 2026-01-06 09:42
文章核心观点 - 3D NAND闪存技术通过垂直堆叠和微缩化持续发展,以满足边缘和云端不断增长的存储需求,其性能提升速度远超大多数其他半导体器件 [1] - 实现3D NAND扩展的关键是极高深宽比的垂直通道蚀刻技术,而低温蚀刻工艺是当前实现这一目标的核心突破,它能显著提高蚀刻速率、改善轮廓垂直度并大幅降低能耗与碳排放 [1][12] - 工艺控制,特别是对蚀刻轮廓的精确控制,直接决定NAND闪存的性能和可靠性,人工智能与建模技术正被用于优化复杂的蚀刻参数,以降低成本并加速工艺开发 [2][15][16] - 随着3D NAND层数持续增加至400层以上,行业面临电荷迁移和单元间干扰等物理极限挑战,需要新的材料与结构创新(如空气间隙)来继续推进微缩化 [18][19] 3D NAND技术发展与需求驱动 - 边缘和云端存储需求增长推动了对更高容量闪存的需求 [1] - 3D NAND闪存每12到18个月更新一代,每代新产品带来50%更快的读写速度、40%更高的位密度、更低的延迟和更高的能效 [1] - 主要生产商包括三星电子、西部数据、铠侠(Kioxia)、SK海力士等 [2] 3D NAND的扩展方法 - 扩展主要通过三种方式实现:在x和y方向更紧密排列单元、垂直堆叠更多层、以及增加每个单元的位数(如从单比特到四层单元QLC) [5] - 自2014年从2D转向3D以来,行业主要采用垂直构建,并将逻辑电路置于存储阵列下方以缩小尺寸(芯片阵列下,CUA) [5] - 通过堆叠更多更薄的二氧化硅和氮化硅交替层(ON),每一代器件可增加30%的字线数量 [2] 垂直通道蚀刻的关键挑战与工艺 - 关键挑战是在保持合理蚀刻速率的同时,确保通道从上到下的垂直轮廓,轮廓均匀性直接关系到NAND的读写速度和编程/擦除效率 [2] - 以深度10微米、直径100纳米的孔为例,允许的轮廓偏差仅为10纳米,这相当于小于0.1%的轮廓偏差 [3] - 使用深反应离子刻蚀(DRIE)技术在芯片上刻蚀出数十亿个高深宽比(深度与宽度之比超过50:1)的圆柱体结构 [2] - 垂直通道蚀刻的纵横比已接近70:1,向100:1过渡将更具挑战性 [14] 低温蚀刻技术的突破与优势 - 低温蚀刻(0°C至-30°C)通过结合低温和新型化学方法,提高了反应离子刻蚀(RIE)的生产效率和垂直蚀刻效果 [12] - 较低温度可抑制不必要的侧壁蚀刻,同时增强离子迁移率和轰击效果 [12] - 该技术能将能耗降低至以往低温解决方案的一半,同时减少80%以上的碳排放 [1] - 使用HF气体进行蚀刻,与第一代低温工艺相比,温室气体碳排放量可减少84% [12] - Lam Research已在生产晶圆厂安装了1000个用于3D NAND的低温蚀刻腔 [13] - Lam Research和东京电子(TEL)是低温蚀刻领域大批量生产的主导企业,分别于2024年7月和2023年推出了新一代低温蚀刻机 [13] 人工智能与建模在工艺优化中的作用 - 蚀刻工艺有超过30个可调参数,人工智能可用于优化蚀刻轮廓,最小化形状变形 [15] - 宏碁(Acer)团队利用来自25片已加工晶圆的数据优化蚀刻工艺,降低了关键尺寸(CD)的变化,从而减少了工艺开发初期的晶圆消耗,降低了成本和开发时间 [15] - 人工智能程序能够优化33个蚀刻参数,以降低顶部CD、弓形CD、CD畸变和CD条纹程度的变化 [15] - 通过人工智能辅助的蚀刻工艺,彻底消除了因VC形状畸变导致的阈值电压异常,实现了可预测且优化的器件性能 [16] 未来微缩化面临的挑战与解决方案 - 随着字线层厚度减小(现有器件z轴间距约40纳米),会出现横向电荷迁移和单元间干扰问题,导致阈值电压降低、数据保持时间缩短等 [18] - 一种潜在的解决方案是用低介电常数的空气间隙取代字线之间的氧化物介质,以抑制单元间干扰 [18] - Imec设计了一种可重复的气隙方案,通过在沉积ONO堆叠层前对栅极间氧化层进行凹陷处理,使气隙与字线自对准,提供了可扩展的解决方案 [19] - 对于未来超过400层的芯片,为维持当前的2层堆叠结构,每层存储器通道孔的蚀刻深度至少需要8微米 [12]