Workflow
半导体行业观察
icon
搜索文档
德明利eSSD亮相2025阿里云栖大会,谋局AI存储新赛道
半导体行业观察· 2025-09-30 11:31
AI基础设施发展趋势 - 2025年阿里云栖大会展示磐久128超节点AI服务器和德明利企业级存储解决方案,体现AI算力与存力协同发展[1] - 全球科技巨头加大AI基础设施投入:阿里巴巴未来三年投资超3800亿元,Meta计划2025年投入600-650亿美元,亚马逊AWS计划投入1000亿美元,谷歌2025年资本开支增至850亿美元[4] - 2025年全球AI服务器市场规模预计达2980亿美元,占服务器市场超70%[4] 企业级SSD市场机遇 - 麦肯锡预测eSSD市场总量以每年35%速度增长,从2024年181 EB增长至2030年1078 EB[3] - 2030年超过50%的eSSD需求将由AI驱动,训练和推理场景对高带宽、低延迟存储需求迫切[5] - 2024年中国eSSD市场规模达62.5亿美元,同比增长187.9%,预计2029年突破91亿美元,其中国际厂商仍占65%以上市场份额[11] 技术转型与替代需求 - HDD在AI时代局限性凸显,供应紧张导致交货周期拉长和价格上涨,西部数据已明确提价[4] - eSSD凭借高带宽、低延迟和高可靠性优势,逐步成为AI数据中心和云计算更优选择[4] - 企业级SSD技术要求严苛:需保证稳态性能和一致性,支持1-3次/天全盘写入,7*24小时稳定运行,可靠性指标比消费级高2-3个数量级[12] 德明利战略布局 - 2023年起全面布局eSSD业务,在深圳、杭州、成都、北京、长沙设立五大研发中心,2024年推出SATA SSD、PCIe 5.0 SSD等eSSD综合解决方案[10] - 采取全链条定制化策略,成功进入头部云厂商供应链,为阿里云定制生产企业级SSD[1][11] - 配备行业领先研发实验室,构建"硬件+技术+服务"一体化支持体系,具备硬件设计、固件定制、产品测试及批量交付全流程能力[18] 产品创新方向 - PCIe 5.0 SSD透明压缩数据盘通过芯片硬件压缩+固件算法优化实现实时数据压缩,适用于高负载数据库场景[14] - PCIe 5.0 QLC SSD结合高密度QLC闪存实现成本效益与性能平衡,满足AI场景大容量需求[16] - 聚焦更高性能和深度定制两大方向,布局QLC闪存、存算一体等前沿技术,提高数据中心数据吞吐量[21] 产业链协同发展 - 国内在主控芯片、闪存颗粒和固件技术上积累深厚,逐步打破海外垄断,本土SSD主控芯片设计能力显著提升[18] - 深化与本土晶圆厂、头部互联网企业和云服务商合作,构建稳定自主可控供应链体系,降低地缘风险[19] - 国内存储产业链协同发展为德明利企业级存储发展提供有力支撑,增强整体生态韧性[18][19]
四亿美金光刻机,不如预期
半导体行业观察· 2025-09-30 11:31
来源 : 内容 编译自 barrons 。 很少有公司比阿斯麦控股 (ASML Holding) 更能从人工智能热潮中获益。这家荷兰公司几乎垄断 了用于生产数据中心高性能芯片的专用光刻机市场,而这一业务正以前所未有的速度蓬勃发展。 ASML 的美国存托凭证在过去一年上涨了 11%。然而,由于受到无法保证在2026年保持增长 。该 公司面临一个大问题。ASML 最新的极紫外光刻 (EUV) 设备大客户数量有限,而目前,其中一家 ——台积电(TSMC)——在先进芯片制造领域占据主导地位。这令人担忧,因为当芯片制造商争夺 霸主地位,不断升级设备以保持领先地位时,ASML 才能蓬勃发展。 ASML 目前正在销售新一代"高数值孔径" EUV 机器,即 High NA EUV。它是 独家供应商 并预 计这些工具将在未来十年内实现更小的芯片。然而,每台这些工具的成本可能超过4亿美元。 台积电显然对这个价格犹豫不决。一位高管在5月份的一次行业会议上表示,这家芯片制造商相信 可以延长其现有EUV光刻机的使用寿命。 这家台湾公司在一封电子邮件声明中告诉《巴伦周刊》: "当高数值孔径 EUV 技术成熟并准备好 为我们的客户带来最大 ...
高通构建双引擎生态:骁龙赋能终端,跃龙深耕产业
半导体行业观察· 2025-09-29 09:37
公司发展历程与核心基因 - 公司于1985年由Irwin Jacobs等七名Linkabit前同事创立 核心基因是高质量通信(Quality Communications)[1] - 近四十年累计研发投入超过1000亿美元 成为无线通信行业核心驱动力[1] - 业务版图从传统无线电扩展至智能手机 PC 汽车 XR 工业物联网等多领域 形成完整技术生态布局[1] 技术研发与创新战略 - 通过自研无线IP 并购(如2021年收购NUVIA 今年收购Alphawave)构建底层芯片护城河[4] - 全面掌握连接技术(5G Wi-Fi 蓝牙)和处理技术(CPU GPU NPU ISP) 集成于先进制程低功耗芯片[4][6] - 在CPU方面推出全球最快移动端CPU Qualcomm Oryon CPU[6] - 在Hexagon NPU实现架构升级 配备更多标量与向量加速器 更快张量加速器 全新64位内存架构[6] - 在新一代Adreno GPU采用创新切片架构 引入18MB专用图形缓存(Adreno独立高速显存)[10] - 新一代20-bit三ISP实现动态范围4倍提升[6] 产品矩阵与性能表现 - 骁龙平台成为旗舰智能手机必然之选 第五代骁龙8至尊版为全球最快移动SoC[8] - CPU采用定制化设计 SoC层面架构创新 实现计算性能和每瓦特性能重大飞跃[10] - Hexagon NPU加速AI特性 传感器中枢新增个人知识图谱和个人记录功能[10] - Adreno GPU加速AI工作负载 实现更快推理响应 高效视频处理 更流畅播放和更快编码效率[11] - ISP引入超域融合视频功能(Dragon Fusion)提升HDR视频效果 支持高级专业视频(APV)编解码器[11] - X85集成5G AI处理器 基于AI的多天线管理增强终端性能和网络覆盖[11] - 针对PC市场推出骁龙X2 Elite Extreme和骁龙X2 Elite 目前最快最高效Windows PC处理器[12] - 骁龙X2 Elite Extreme集成第三代Oryon CPU 相同功耗下CPU性能较竞品领先75% Adreno GPU每瓦特性能和能效提升2.3倍 NPU达80TOPS AI处理能力[14] - 骁龙X2 Elite相同功耗下性能较前代提升31% 相同性能下功耗降低43% 支持80TOPS AI算力[14] 新兴市场与品牌扩展 - 推出高通跃龙(Qualcomm Dragonwing)平台 面向工业 物联网与网络基础设施领域[16] - 集成边缘AI 高性能低功耗计算和先进连接技术 应用场景包括工业机器人 无人机 固定无线接入(FWA) 零售物流等[16] - 实现UHF RFID与5G Wi-Fi 7 蓝牙6.0等通信技术融合[16] - 高通跃龙第四代FWA至尊版平台实现14公里毫米波远程通信 12.5Gbps下行峰值速率[16] - 高通跃龙Q-6690为全球首款企业级芯片集成RFID功能[16] 中国市场合作与AI战略 - 进入中国三十年 从CDMA网络测试到助力中国移动终端合作伙伴成长并走向全球[17][18] - 在智能汽车领域 通过骁龙数字底盘支持中国汽车品牌推出210多款车型[18] - 在物联网领域 借助高通跃龙推动中国工业物联网和网络基础设施行业变革[18] - 2011年提出边缘计算是AI未来核心 2022年展示AI赋能实时体验 2023年提出AI是新的UI 2024年演示多模态助手和多模态大模型 今年推动AI技术规模化落地[19] - 六大核心趋势驱动AI发展:AI是新的UI 从智能手机转向智能体 计算架构变革 模型混合化 边缘数据相关性增强 迈向未来感知网络[21] - 通过对AI感知 处理到学习全过程投入 赋能边缘智能 塑造新一代移动终端和体验[22]
黄仁勋:中国芯片潜力无穷,仅落后美国“几纳秒”
半导体行业观察· 2025-09-29 09:37
文章核心观点 - 美国对中国的芯片出口管制政策被视为可能适得其反 促使中国加速芯片自主化进程并推动"去美化" [1] - 英伟达首席执行官黄仁勋认为中国在芯片领域仅落后美国"几纳秒" 拥有强大潜力 并呼吁美国政府允许美企在中国市场竞争以维持美国影响力 [1] - 英伟达正采取策略在中国市场保持存在 包括恢复向中国客户出货符合规定的H20 AI GPU 同时中国本土芯片产业(如华为)正加速发展 对英伟达的市场主导地位构成压力 [2][3] 美国芯片管制政策与行业反应 - 美国政府推行针对中国大陆的芯片出口管制措施 意图打压其芯片产业发展 [1] - 专家指出美国的技术封锁反而促使大陆持续推动"去美化"政策并加快芯片自主化 [1] - 英伟达首席执行官黄仁勋早前直言美国管制AI芯片出口是"政策错误" 近日更警告大陆在芯片领域仅落后美国"几纳秒" [1] - 黄仁勋呼吁美国政府允许美国科技公司在包括大陆在内的全球市场竞争 以提升美国的经济成功和地缘政治影响力 [1] 英伟达的中国市场策略与动态 - 英伟达正计划恢复向中国客户出货其H20 AI GPU 此前出货因美国新出口规则暂停了数月 [2] - 美国商务部已于8月开始为H20发放许可证 英伟达已开始研发一款后续芯片 旨在符合当前限制规定同时提供更高性能 [2] - 这是自A100和H100禁令生效以来 英伟达第二次尝试专门针对中国市场定制AI加速器 [2] - 英伟达的策略是在中国站稳脚跟 并在地缘政治分歧的两边都发挥作用 [3] - H20为中国企业提供了一条留在英伟达生态系统内的道路 英伟达此前在中国市场占有95%的份额 [2][3] 中国芯片产业的发展与竞争态势 - 中国正在加速推进芯片自给自足计划 华为全新Atlas 900 A3 SuperPoD系统搭载其昇腾910B芯片现已批量出货 [2] - 华为制定了雄心勃勃的2027年发展路线图 下一代昇腾芯片旨在达到甚至超越当前一代芯片性能 [2] - 华为的系统设计不依赖CUDA 并针对中国自主研发的软件堆栈进行了优化 这一转变对英伟达的主导地位构成真正压力 [2] - 中国的超大规模企业正在用资本支持这一路线图 他们都在投资定制芯片 要么通过内部芯片团队 要么通过资助初创公司 [3]
“美国要制造50%先进芯片”
半导体行业观察· 2025-09-29 09:37
当被问到"美国究竟希望从与台湾的贸易协议中获得什么"时,卢特尼克直言,目前全球手机与汽车 使用的芯片中有多达95% 由台湾生产,而台湾距离美国9000英里,显然这样的供应布局不利美 方。 卢特尼克表示,川普政府的核心目标之一,就是大规模将芯片制造移回美国本土。他直言,"如果 一个国家无法自己制造芯片,又要如何自保?"他接掌商务部时,美国本土自制芯片仅占2%,其 任内目标是提升至40%,虽然这几乎被视为不可能的任务,却是他坚定推动的政策。 卢特尼克坦言,这项目标需投资超过5000亿美元(约新台币15.2兆元),并建立完整供应链,而 台湾的参与是关键,"让台湾愿意参与,就是川普政府的魔力所在,这对台湾来说并不是直觉性的 选择,因为台湾会说,"我们生产95%,我们很好。"但川普会说,"这对你不好,也对我们不好。 若你希望我们保护你,那你就必须帮助我们达成自给自足。"" 针对外界忧心"硅盾"被削弱的观点,卢特尼克则持不同观点。他指出,若美国完全依赖台湾生产芯 片,反而会限制自身对台协防能力。他认为,减少依赖台湾的同时,才能保障对台支持的持久性。 因此,他向台湾提出"五五分"的战略构想,也就是未来全球芯片产能中,美国与 ...
多数AI芯片,只能用三年?
半导体行业观察· 2025-09-29 09:37
AI基础设施投资规模 - 过去三年顶尖科技企业在AI数据中心、芯片和能源的实质投资金额已超过美国耗时四十年打造州际公路系统的成本[1] - 红杉资本合伙人估算,仅2023和2024年的AI基础设施投资就需要约8000亿美元的AI产品营收才能产生不错的投资回报[1] - OpenAI的愿景是以标准化流程每周新增1吉瓦算力基础设施,每吉瓦算力的开发成本约为500亿美元,其中约三分之二用于购买芯片和网络设备[1] - 贝恩公司预估,到2030年科技业高层需部署约5000亿美元的资本支出并找到约2兆美元的新营收才能满足需求并实现获利[1] - 一座AI数据中心的建造成本可能介于400-500亿美元之间[3] 企业AI投资与需求动态 - 高盛会议上多位高阶主管表示AI需求超越其提供智能算力的能力,且与1990年代网络泡沫不同,消费者和企业现在正为AI服务付费[2] - Meta从今年到2028年期间在美国的总支出规模约为6000亿美元,包括数据中心基础设施和人力成本等[2] - Alphabet首席执行官认为AI投资不足的风险远大于投资过多风险,相关基础设施使用年限长且应用领域广泛[3] - 谷歌云端已利用AI赚进数十亿美元,Alphabet被分析师视为最有能力将生成式AI商机变现与规模化的企业,有能力超越微软、苹果和辉达[3] 全球基础设施投资前景 - 贝莱德首席执行官预估2024-2040年期间全球新基础建设投资需求将达68兆美元,相当于未来15年内每6周就建造一次完整的州际公路系统和横贯大陆铁路[2]
氮化镓,大有可为
半导体行业观察· 2025-09-29 09:37
射频器件市场总体规模与增长 - 2024年全球射频器件产业规模预计达到513亿美元,到2030年将增长至697亿美元 [2] - 增长由消费电子、电信基础设施和新兴应用领域对先进无线技术的需求驱动 [2] - 5G的推出和6G的初步酝酿推动了对高度集成射频前端解决方案的需求以及向宽带隙半导体的转变 [2] 氮化镓射频市场增长与驱动因素 - GaN射频器件市场规模在2024年达到12亿美元,预计到2030年将达到20亿美元,复合年增长率为8.4% [3] - 5G大规模MIMO天线越来越多地采用GaN技术,逐渐取代功率放大器中的LDMOS [3] - GaN技术能够满足5G网络对更高工作电压、更大功率密度和卓越频率性能的需求 [6] 氮化镓的技术优势 - 与硅基器件相比,GaN具有更高的击穿电压和更高的电子迁移率 [5] - GaN能够实现更高的工作电压、更高的功率密度和更高的工作频率,超越了传统LDMOS和砷化镓技术 [5] - GaN在6 GHz以下频段和FR3频段都展现出重要性,其中集成密度和低寄生效应至关重要 [7] 硅基氮化镓的竞争优势与增长前景 - 硅基氮化镓通过使用标准6英寸和8英寸硅晶圆降低材料成本,并能利用现有CMOS兼容工艺实现规模化生产 [8] - 到2029年,硅基氮化镓在基站功率放大器中的份额可能从个位数增长到10%以上 [9] - 2025年至2030年,硅基氮化镓的复合年增长率约为45%,超过碳化硅基氮化镓6%的增长率 [9] 硅基氮化镓在新兴应用领域的潜力 - 硅基氮化镓的潜力延伸到卫星通信领域,可以在带宽和高频性能方面提供优势 [11] - 在手机领域,硅基氮化镓可为7 GHz以下和FR3频段带来优势,但进入移动市场的时间可能更接近2020年代末和2030年代初 [12] - 卫星通信目前主要依赖基于GaAs的功率放大器,硅基氮化镓面临供应链成熟度和成本竞争力的障碍 [11] 制造业发展态势与厂商布局 - 主要射频厂商利用现有硅晶圆厂加速采用硅基氮化镓,大多数战略直接转向8英寸平台以降低成本 [13] - 英飞凌于2023年进军电信市场,推出基于8英寸晶圆的硅基氮化镓功率放大器模块 [13] - 英特尔正在开发基于12英寸晶圆的硅基氮化镓技术,旨在为未来5G和早期6G应用提供具有成本竞争力的毫米波解决方案 [15] 6G技术发展趋势与硅基氮化镓的机遇 - 6G的天线架构预计将扩展到256T/256R、512T/512R,甚至1024T/1024R,这为硅基氮化镓技术打开了新的机遇之窗 [6] - 6G概念强调每秒太比特的速度、亚毫秒级的延迟和人工智能驱动的网络优化 [7] - 随着天线系统扩展到128T/128R及更高,每个站点的功率放大器数量会增加,而单个功率放大器的输出功率会下降 [15]
大模型变革EDA的三种方式
半导体行业观察· 2025-09-29 09:37
随着现代集成电路复杂程度的不断提升,硬件工程师需要在从设计到制造的完整工作流程中 投入更多精力。该工作流程涉及大量迭代过程,不仅耗费大量人力,还容易出现差错。因 此,业界迫切需要更高效的电子设计自动化(EDA)解决方案,以加快硬件开发速度。 近年来,大型语言模型(LLM)在语境理解、逻辑推理和生成能力方面取得了显著进步。由于硬 件设计和中间脚本可通过文本形式呈现,将 LLM 集成到 EDA 中为简化乃至自动化整个工作流程 提供了极具前景的机遇。基于此,本文全面综述了 LLM 在 EDA 中的应用,重点探讨其能力、局 限性及未来机遇。 文中介绍了三个案例研究及其展望,以展示 LLM 在硬件设计、测试和优化方面的能力。最后,本 文强调了未来的发展方向与挑战,旨在进一步挖掘 LLM 在打造下一代 EDA 中的潜力,为有意将 先进人工智能技术应用于 EDA 领域的研究人员提供有价值的参考。 引言 公众号记得加星标⭐️,第一时间看推送不会错过。 电子设计自动化(EDA)涵盖了从逻辑设计到制造的完整工作流程,在提升硬件性能和缩短开发 周期方面发挥着关键作用。通用人工智能(AGI)的出现为重塑 EDA 的未来带来了革命性变 ...
下一代GPU,竞争激烈
半导体行业观察· 2025-09-29 09:37
NVIDIA与AMD下一代AI架构竞争 - NVIDIA与AMD竞相修改下一代AI架构设计以获取优势,竞争预计比以往更加激烈[2] - AMD高管对Instinct MI450产品线持乐观态度,称其将成为公司的"米兰时刻",并明确表示MI450将比NVIDIA的Vera Rubin更具竞争力[3] - MI450X的TGP额定值比初始值增加了200W,而Rubin的TGP也相应增加了500W,达到2300W[5] - Rubin的内存带宽从每GPU 13 TB/s提升到了每GPU 20 TB/s[5] AMD Instinct MI450与NVIDIA Vera Rubin规格对比 - AMD MI450预计2026年发布,采用HBM4内存,容量最高达每GPU 432 GB,内存带宽约19.6 TB/s,FP4稠密计算性能约40 PFLOPS[6] - NVIDIA Vera Rubin VR200预计2026年下半年发布,采用HBM4内存,容量约每GPU 288 GB,内存带宽约20 TB/s,FP4稠密计算性能约50 PFLOPS[6] - 两家公司预计将采用相同技术,包括HBM4、台积电N3P节点和基于chiplet的设计,技术差距将缩小[6] AMD D2D互连技术升级 - AMD计划在Zen 6处理器上大幅提升D2D互连技术,Strix Halo APU中已可见"Zen 6 DNA"[8] - 传统SERDES PHY方法存在效率较低、功耗和延迟较高的问题,串行/解串转换会增加数据流转换开销[10] - Strix Halo采用新方法,通过台积电InFO-oS技术和重分布层,在芯片间布置短而细的并行线路,移除大型SERDES块,降低功耗和延迟[12][15] - 新方法无需进行序列化/反序列化,通过在CPU结构中添加更多端口提升整体带宽[12]
CPU和CPU,是如何通信的?
半导体行业观察· 2025-09-29 09:37
文章核心观点 - 文章系统阐述了人工智能和高性能计算系统中,CPU与GPU之间以及GPU与GPU之间的数据通信技术演进,重点分析了传统通信方式的瓶颈以及NVIDIA推出的GPUDirect系列技术、NVLink和NVSwitch等优化方案如何通过减少数据拷贝次数、提供高带宽直连来显著提升数据传输效率 [3][6][7][11][12][14][15][19][20][24][25][27][28] GPU与存储系统的通信 - 传统数据加载流程需经过系统内存中转,涉及两次数据拷贝:第一次从NVMe SSD通过DMA技术经PCIe总线拷贝到系统内存,第二次通过CUDA的cudaMemcpy函数经PCIe总线将数据从系统内存拷贝到GPU显存 [6] - 传统方式存在冗余的数据拷贝过程,导致效率瓶颈 [6] - GPUDirect Storage技术优化了此流程,它提供了存储设备与GPU显存的直接通路,允许网卡或存储系统的DMA引擎直接向GPU显存读写数据,减少了CPU和系统内存的瓶颈,显著提升了数据密集型应用的性能 [6][7] GPU之间的数据流动 - 传统GPU间通信需通过系统内存中的共享固定内存中转,数据从GPU0显存经PCIe拷贝到系统内存,再经PCIe拷贝到GPU1显存,过程存在多次冗余拷贝 [10] - GPUDirect P2P技术允许GPU之间通过PCIe或NVLink直接进行数据拷贝,无需经过系统内存缓存中间数据,使执行相同任务时的数据拷贝动作减少一半 [11][12] - 尽管P2P技术有优化,但多个GPU通过PCIe总线与CPU相连的方式,在AI对HPC要求提升的背景下,PCIe通信带宽逐渐成为瓶颈 [13] - PCIe带宽随版本提升而增加,例如PCIe 3.0 x16带宽为15.75 GB/s,PCIe 4.0 x16带宽为31.51 GB/s,PCIe 5.0 x16带宽为63.02 GB/s [13][14] 高带宽互连技术NVLink与NVSwitch - NVLink是一种高速高带宽互连技术,用于GPU之间或GPU与其他设备间的直接通信,例如NVIDIA A100 GPU通过NVLink互联可达到600GB/s的双向带宽,远高于传统PCIe总线 [14][15] - 不同世代NVLink带宽持续提升,第三代每GPU带宽为850GB/s,第四代为900GB/s,第五代达到1,800GB/s [16] - NVLink解决了单节点小规模计算设备间的高效通信,但当GPU数量超过NVLink最大连接数时,拓扑结构面临挑战 [17][18] - NVSwitch是专为多GPU系统设计的高速互联芯片,它作为节点交换架构,支持单节点中多个GPU的全互联,例如支持16个GPU全互联,并支持多对GPU同时通信 [19][20] - NVSwitch提供高带宽,每条NVLink带宽可达300 GB/s(双向),远高于PCIe 4.0 x16的32GB/s带宽,并且支持全互联拓扑,避免通信瓶颈,具有良好的可扩展性 [20] - NVSwitch版本带宽不断提升,NVLink 3 Switch总聚合带宽为4.8TB/s,NVLink 4 Switch为7.2TB/s,NVLink 5 Switch为1PB/s [21] GPU之间的跨机通信 - 经典的跨机通信不支持RDMA时,需借助系统内存进行数据传输,过程包含5个步骤,涉及数据在GPU显存、主机固定内存和网卡缓冲区之间的多次拷贝,效率较低 [22][23][24] - GPUDirect RDMA技术优化了跨机通信,它将上述5个步骤简化至一步完成,支持外围PCIe设备直接访问GPU显存,减少了通过系统内存的中间数据拷贝,并减轻了CPU负载 [24][25] - GPUDirect RDMA可通过InfiniBand、RoCE或iWARP等协议实现 [25] 技术总结与应用结合 - GPUDirect Storage实现了存储设备与GPU显存的直接访问,提升数据加载效率 GPUDirect P2P实现了GPU间互联互通 NVLink改善了PCIe带宽瓶颈 NVSwitch解决了多GPU设备拓扑扩展问题 GPUDirect RDMA解决了多节点GPU间通信问题 [27] - 在实际系统中,GPUDirect P2P与RDMA可结合使用以最大化性能:在单节点内通过NVLink与GPUDirect P2P实现GPU间高速通信,在跨节点间通过InfiniBand与GPUDirect RDMA实现低延迟数据传输 [27][28] - GPUDirect P2P是单节点多GPU通信的基石,依赖高速直连硬件优化本地协作 GPUDirect RDMA是跨节点GPU通信的核心,依赖RDMA网络实现远程数据直达 两者共同支撑了从单机到超大规模集群的GPU高效协同,是AI训练和HPC等领域的关键技术 [28]