LPDDR内存
搜索文档
高通上“芯”,A股“伙伴”振奋
上海证券报· 2025-10-29 23:26
当地时间10月27日,高通推出面向数据中心的下一代AI推理优化解决方案——基于高通AI200和AI250芯片的加速卡及整机柜产品,并预计于2026年和 2027年分别实现商用化。 有分析人士表示,此次高通推出机架级解决方案,或标志着公司业务正从销售芯片拓展至提供数据中心系统,这一举措与英伟达和AMD的发展路径相一 致,并使公司在数据中心市场与英伟达和AMD展开竞争。 记者注意到,多家A股上市公司在存储等领域与高通存在紧密联系,或将受益于高通进军数据中心解决方案市场。 高通推出机架级解决方案 具体来看,高通AI200是一款专为机架级AI推理打造的解决方案,旨在降低总体拥有成本(TCO),并针对大语言模型及多模态大模型(LLM、LMM) 推理和其他AI工作负载实现性能最优化。每张加速卡支持高达768 GB的LPDDR内存,不仅显著提升了内存容量,还有效降低了成本,从而为AI推理带来 扩展性和灵活性。 高通表示,两款机架级解决方案均配备直液冷散热系统,整机柜的功率消耗控制在160千瓦,充分满足大规模部署的需求。 "通过高通AI200和AI250,我们正重新定义机架级AI推理的无限可能。这些全新AI基础设施解决方案, ...
存储巨头,纷纷投靠台积电
半导体芯闻· 2025-09-24 18:47
财务业绩与展望 - 公司预计本财年第一季度营收约为125亿美元,高于分析师平均预期的119亿美元 [1] - 公司预计第一季度扣除部分项目后每股利润约为3.75美元,高于市场此前预估的3.05美元 [1] - 截至8月28日的财年第四季度,公司营收同比增长46%,达到113亿美元,高于市场预估的112亿美元 [3] - 公司财年第四季度剔除部分项目后每股收益为3.03美元,超出市场平均预测的2.84美元 [3] - 公司在2025财年的厂房与设备投入达138亿美元,并预计在当前财年将进一步提高资本支出 [4] 高带宽存储器产品进展 - 公司已生产并交付了速度最快的HBM4解决方案首批样品,提供超过11 Gbps的引脚速度和2.8 TB/s的带宽 [1] - 公司表示新的HBM4产品在性能和效率方面应该超越所有竞争对手 [1] - 公司将与台积电合作生产HBM4E内存的基础逻辑芯片,标准版和定制版均将采用此方案,预计HBM4E将于2027年上市 [2] - 公司已与客户就2026年大部分HBM3e存储器芯片达成价格协议,并已提供下一代HBM4的样品,计划通过固定合同销售以确保营收稳定 [4] - HBM制造工艺复杂,占用的工厂产能时间更长,从而抑制了整体供应扩张 [5] 其他产品与技术发展 - 公司已与英伟达密切合作,推动服务器采用LPDDR内存,使其成为数据中心领域LPDDR DRAM的唯一供应商 [2] - 公司用于人工智能和客户端产品的GDDR7内存,预计在未来的迭代中引脚速度将超过40 Gbps,比最初宣布的32 Gbps速度提升25% [2] - 1γ DRAM节点已在创纪录的时间内达到成熟良率,比上一代快了50% [3] - G9 NAND节点将同时支持TLC和QLC NAND闪存解决方案,公司是首家推出PCIe Gen6 SSD(用于数据中心)的公司 [3] 市场需求与竞争格局 - 公司指出存储芯片供应紧张的状况将延续到明年,数据中心设备需求的增长使企业难以跟上订单 [4] - 人工智能相关业务推高了对NAND闪存的需求 [4] - 个人电脑和手机行业对存储芯片的需求将增长,这些领域在采用AI方面正在加快步伐 [4] - 公司与韩国竞争对手SK海力士在HBM领域已缩小与市场领导者三星电子的差距,其最新一代以及即将推出的产品正在帮助公司在这一领域取得领先 [5] - 数据中心板块已占公司营收的一半以上 [5] 市场表现与行业地位 - 公司首席执行官表示,在2025财年,数据中心业务创下历史新高,并以强劲的势头进入2026财年 [3] - 公司强调作为唯一一家总部在美国的存储器制造商,在抓住AI机遇方面具备独特优势 [3] - 公司仍聚焦于提升盈利,而非单纯追逐市场份额 [4] - 今年以来,公司股价几乎翻倍,涨幅超过大多数同行 [3]
人工智能,需要怎样的DRAM?
半导体行业观察· 2025-06-13 08:40
人工智能系统中的DRAM类型 - 人工智能涉及高强度计算和海量数据,DRAM类型的选择取决于系统类型,包括CPU、GPU或专用加速器[1] - 同步DRAM(SDRAM)分为四类:DDR、LPDDR、GDDR和HBM,各有目标用途和优缺点[1] - DDR内存与CPU搭配使用,针对复杂指令集架构优化,具有最快延迟和64位数据总线[1] - LPDDR在保持高性能的同时降低功耗,采用多项节能技术如降低电源电压、温度补偿刷新率等[2][3] - GDDR配合GPU进行图形处理,带宽高于DDR但延迟也更高,容量是主要问题[4] - HBM具有非常宽总线的DRAM芯片堆栈,提供极高带宽,适合AI训练等数据密集型计算[4] 不同类型DRAM的应用场景 - 数据中心是HBM主要应用领域,尤其适合训练和超高速接口,但成本使其局限于云端[7] - HBM价格和能耗高,但在数据中心中与芯片成本相比增量无关紧要[7] - 二线厂商因产量不足难以获得HBM支持,需做出权衡[8] - DDR通常服务于数据中心中协调操作的CPU,而加速器依赖HBM和LPDDR[10] - LPDDR开始渗透到各种系统,可作为降低功耗的选择,甚至尝试堆叠创建穷人版HBM[14] - GDDR在AI系统中较少使用,处于HBM和LPDDR之间的尴尬位置[16] DRAM技术发展趋势 - LPDDR5X已上市且价格合理,LPDDR6预计今年年底上市,性能将有提升[18] - HBM4是下一代高带宽内存,带宽、通道数和数据总线宽度均翻倍,预计2026年上市[19] - 定制HBM成为新兴切入点,可替换标准逻辑基础芯片为专有功能芯片[8] - 混合内存方案日益流行,如DDR和LPDDR组合或HBM和LPDDR组合[8] - 所有DRAM标准源自JEDEC,不同类型有各自委员会推进发展[18] 系统设计考量 - 处理器和内存独立发展,未来总会有跨越式发展,需保持同步[21] - 高质量访问信号对高速运行至关重要,需考虑信号完整性[22] - 系统设计师需为特定系统选择最合适内存并确保系统能跟上[22] - LPDDR进入数据中心可降低功耗,但缺乏RAS功能和ECC支持[15] - GDDR适合图形相关生成算法,但容量限制可能成为障碍[16]