内存池化
搜索文档
CXL方案优化AI存储架构,头部厂商有望加速应用
东方证券· 2026-03-17 19:02
报告投资评级 - 行业评级:看好(维持) [5] 报告核心观点 - 核心观点:CXL 方案优化 AI 存储架构,头部厂商有望加速应用 [2][3][10] - 核心逻辑:CXL 方案优化 AI 存储架构,头部厂商有望加速应用,打开成长空间 [11] - 核心变量:CXL 方案渗透率;英伟达、谷歌等头部厂商对 CXL 方案的应用情况;AI 推理对内存需求的拉动情况 [11] - 股价催化因素:英伟达、谷歌等头部厂商应用 CXL 方案;CXL 方案渗透率显著提升;CXL 相关软硬件进一步成熟 [12] 根据目录总结 1. CXL 方案优化存储效率,适应 AI 推理需求 - **CXL方案解决现有存储架构痛点**:当前AI算力设施内存架构存在容量有限、效率受限问题,服务器内存提升受插槽数量与单根内存条容量制约,且模型参数和激活值在HBM、DRAM、SSD间频繁迁移导致延迟放大、带宽浪费和吞吐率下降 [8][19] - **CXL方案的技术优势**:CXL 内存池化方案支持跨CPU、GPU等计算加速器的内存资源进行统一寻址、调度与透明访问,实现资源整合与统一调度,支撑更大规模、更高并发的大模型训练与推理任务 [8][21] - **CXL方案优化存储层级**:CXL 内存访问延迟约为200纳秒,虽高于直接附载的DRAM(约100纳秒),但远低于NVMe SSD(微秒级)和HDD(毫秒级),在DRAM与SSD之间创造新的性能层级,优化存储架构 [24] - **技术持续创新适配AI推理**:三星推出结合DRAM与NAND的CMM-H混合存储CXL模组;KIMI提出MoonCake Store分布式KV Cache存储池技术;浪潮信息基于CXL推出“存传一体”的KVCache管理系统MantaKV,将两次独立搬运合并为单次写入;北京大学联合阿里云提出基于CXL的Engram内存池化架构,集成到SGLang框架中实现接近本地DRAM的性能 [32][33][38][42] - **提升经济效益**:CXL技术通过优化内存配置有望显著降低数据中心系统总拥有成本(TCO),根据英特尔基于2025年预测价格的模型测算,特定CXL配置方案可带来约16%的TCO节省 [45][46] 2. CXL 相关软硬件逐步完善,头部厂商推进应用 - **协议标准持续升级**:CXL 4.0规范于2025年11月发布,数据速率达到128 GT/s,较CXL 3.0的64 GT/s翻倍 [8][49] - **产业链关键进展**:SK海力士已完成基于CXL 2.0的DDR5 96GB产品客户验证,其容量较现有DDR5模组增长50%,带宽扩展30% [53] - **头部厂商加速布局**:CXL联盟已汇聚超过280家成员公司,包括谷歌、微软、Meta、阿里巴巴、英伟达、英特尔、AMD、三星、SK海力士等科技与存储巨头 [55] - **英伟达生态布局**:英伟达于2025年9月收购Enfabrica的核心团队和技术授权布局相关方案,其Vera CPU支持CXL协议 [8][58][59] - **国内厂商方案落地**:阿里云于2025年云栖大会宣布推出全球首款基于CXL 2.0 Switch技术的PolarDB数据库专用服务器;浪潮信息于2025年12月推出元脑服务器CXL内存扩展方案,基于NF5280G7服务器内置CXL内存扩展卡,实现内存容量1TB-4TB的灵活扩展 [8][65][68] 3. CXL 方案渗透率有望持续提升,为产业链打开增长空间 - **渗透率快速提升**:根据Techinsight预测,CXL在服务器DRAM中的总份额将从2024年的近乎为零,快速增长至2030年的约15% [8][70] - **有望成为服务器标配**:根据Yole预测,支持CXL功能的服务器占比将提升至2026年的68%,并在2030年达到99%;实际启用CXL功能的服务器占比将从2024年的近乎为零增长至2030年的13% [72] 4. CXL 应用有望加速,相关企业深度受益 - **澜起科技**:2025年营收54.6亿元,同比增长50%;归母净利润22.4亿元,同比增长58%;毛利率62.2% [76];公司为全球首家进入CXL合规供应商清单的MXC芯片厂家,其CXL内存扩展控制器芯片已获三星电子、SK海力士采纳 [80];2025年9月推出基于CXL 3.1 Type 3标准设计的内存扩展控制器芯片M88MX6852,并已开始向主要客户送样测试 [82] - **聚辰股份**:2025年营业收入12.2亿元,同比增长18.7%;归母净利润3.6亿元,同比增长25.0% [85];公司的VPD芯片是新一代企业级固态硬盘及CXL内存扩展模组的关键组件,已与全球领先存储厂商合作,成为首家进入设计验证阶段的VPD开发商 [87] - **江波龙**:2024年营收174.6亿元,同比增长72%;归母净利润5.0亿元,实现扭亏为盈,毛利率19% [91];公司已发布首款采用自研架构设计的FORESEE CXL 2.0内存拓展模块,支持内存池化共享,基于DDR5 DRAM开发,支持PCIe 5.0×8接口,理论带宽高达32GB/s [93] - **投资标的**:报告提及的相关标的包括澜起科技、聚辰股份、江波龙、佰维存储等 [3][13][75]
CXL-互联筑池化-破局内存墙
2026-03-16 10:20
纪要涉及的行业或公司 * **行业**:CXL(Compute Express Link)技术及产业链,属于半导体、数据中心、AI服务器领域[1] * **公司**: * **澜起科技**:A股上市公司,全球内存接口龙头,布局CXL拓展芯片等[1][11] * **Astera Labs**:美股上市公司,提供CXL连接类芯片或IP[1][9][12] * **博通 (Broadcom)**:CXL Switch芯片主要参与者[1][9] * **其他提及的参与者**:英特尔、AMD、英伟达、谷歌、Meta、戴尔、惠普、三星、海力士、Renesas、Microchip、Cadence、TI、Marvell (收购XConn)、Rambus[5][9][12] 核心观点与论据 * **核心问题与解决方案**:CPU核心数增长与内存带宽增速失配,形成“内存墙”,制约算力发挥 CXL协议旨在通过内存池化与共享,解决CPU/GPU面临的存储容量与带宽不足问题[1][2] * **论据**:CPU核心数预计从2023年的96核发展至256核,但内存通道数可能长期维持在12通道,导致单个核心对应的内存带宽未显著提升[2] * **技术基础**:以PCIe总线为物理基础,复用现有硬件链路,生态兼容性好[2] * **核心功能**: * **CXL.io**:继承PCIe基础I/O功能,确保设备互联[2] * **CXL.cache**:允许设备缓存主机内存数据,实现缓存一致性[2] * **CXL.mem**:支持内存资源直接共享与统一寻址[2] * **市场前景广阔,增长迅速**:CXL是解决AI大模型存力不足的必由之路,市场规模将快速扩张[1][8] * **市场规模**:CXL内存市场规模预计到2030年达**600亿美元**[1][8] * **细分市场**:CXL Switch芯片市场规模预计到2030年达**7.3亿美元**[1][10] * **渗透率**:当前采用CXL的服务器市占率尚低,但兼容CXL的服务器数量正快速增长,渗透率有望随服务器平台升级加速提升[1][8] * **AI服务器驱动存储需求**:AI服务器对内存容量的需求呈高速扩张态势,显著拉动对DRAM和NAND Flash的需求[1][6] * **论据**:AI服务器的存储需求量相较于通用服务器有**数倍增长**[1][6] * **容量扩展瓶颈**:单台服务器(如双路CPU)通常最多只能安装**32根**内存条,内存池化成为关键扩展路径[6][7] * **技术演进路径明确**:CXL协议迭代迅速,未来向大规模互联与光结合演进[1][3][4][5][8] * **版本迭代**:CXL 2.1已落地,4.0版本规划于2025年,自2019年1.0推出以来迭代迅速[1][5] * **演进特点**:速率随PCIe迭代提升,从早期聚焦互联生态,中期推进内存解构与资源共享,未来向大规模Fabric扩展及安全合规演进[3][4] * **光互联结合**:光互联在带宽、延迟、能耗方面有优势,业内已推出基于CXL的光互联解决方案,实现电光信号高效转换[8] * **产业链核心与成本结构**:CXL内存扩展系统的核心在于交换层与管控层的协同设计[9] * **核心部件**:CXL内存扩展控制器 (CXL Controller) 和 CXL交换芯片 (CXL Switch)[9] * **成本占比**:CXL控制器在模组BOM成本中占比**超过10%**[1][9] * **模组构成**:由CXL拓展芯片、内存颗粒和PCB板构成[9] * **混合存储方案探索**:CXL不仅支持DRAM,也支持DRAM与NAND Flash的混合方案,以提升容量、密度并降低延迟[1][7] * **案例**:三星的CXL混合内存方案通过CXL控制器统一管控DRAM和NAND Flash[7] 其他重要内容 * **应用场景**:CXL协议主要有三类应用场景:适配无内存的专用加速卡(如AIC)、连接带本地内存的加速卡(如GPU与CPU之间)、用于内存拓展以提供大型共享内存池[3] * **产业生态广泛**:CXL联盟由CPU/GPU芯片龙头、云服务厂商及服务器整机厂商等众多行业核心参与者共同构成,推动协议持续演进[5] * **澜起科技的竞争优势与前景**: * **市场地位**:全球内存接口龙头,份额约**40%**[1][11] * **技术布局**:具备先发优势,已于2025年推出基于CXL **3.0/3.1**协议的拓展芯片,技术全球领先[1][11] * **产品线**:战略布局“运力芯片”,包括CXL拓展芯片、PCIe Retimer芯片(已在国内头部互联网厂商规模化放量)、PCIe Switch芯片(预计2026年下半年送样)及AEC Retimer芯片(2026年推出)[11] * **业绩预期**:预计公司2026年利润体量有望冲击**40亿元**[1][11] * **投资标的扩展**:在美股市场,Astera Labs和Rambus等公司也预计将在CXL技术驱动的产业变革中迎来增长机会[12]
澜起科技尾盘涨超8%创上市新高 花旗看好其今明两年盈利增长
智通财经· 2026-02-12 15:38
股价表现与市场反应 - 澜起科技股价尾盘涨超8%,最高触及188港元,创下上市新高,收盘报185.7港元,涨幅7.53%,成交额达5.29亿港元 [1] 机构观点与评级 - 花旗给予澜起科技“买入”评级,目标价为205港元,该目标价对应公司今年下半年至明年上半年预测市盈率约54倍 [1] - 花旗认为,基于CPU的服务器需求增长以及智能体AI应用的新发展可能被催化,将带动更多DIMM内存模组使用,从而为公司内存接口业务带来上行空间,推动今明两年盈利增长 [1] - 第一上海指出,随着AI时代到来,算力芯片性能高速增长,互联能力逐步成为AI算力集群的瓶颈 [1] 业务发展机遇 - 公司的互联芯片业务将迎来确定性的高速发展,具体驱动因素包括内存接口技术从DDR4向DDR5甚至DDR6升级,以及PCIe从4.0向6.0甚至7.0提升 [1] - CXL标准提出的内存池化技术,预计将大幅提升相关接口芯片的价值量 [1]
未知机构:长江电子澜起科技第四call在产业趋势上做配置ramb-20260204
未知机构· 2026-02-04 10:00
纪要涉及的行业或公司 * **公司**:澜起科技 (A股) [1][3]、Rambus (美股) [1][3] * **行业**:服务器/数据中心、内存接口芯片、CXL (Compute Express Link) 技术、AI服务器 [1][2] 核心观点和论据 * **产业趋势持续向上**:尽管Rambus因自身封测品质问题导致Q1业绩指引不及预期并股价大跌,但公司对服务器CPU内存条未来增长及MRDIMM等产品放量给予正面回应,产业趋势未改 [1] * **CXL技术放量可期**:据产业链调研,谷歌TPUv8p有望引入内存池化以拓展内存容量,每张TPU有望额外增加数百GB内存,此举将推动内存池化规模商业化,利好CXL技术放量 [1] * **CXL拓展芯片竞争格局与前景**:该领域主要玩家为澜起科技和Rambus,产品具有高单价、高毛利特征,在产业放量背景下,市场规模和利润增长确定性高 [2] * **内存接口及配套芯片主业增长确定**:在AI服务器高增长背景下,通用服务器市场预计2025年呈现双位数增长,且在Agent趋势下,2026年市场有望进一步增长,AI与通用服务器CPU的高增长将带动内存条市场加速增长,从而确保内存接口及配套芯片主业的确定性增长 [2] * **MRDIMM产品将驱动中期增长**:随着MRDIMM规模起量,其所用的内存接口芯片MRCD及MDB (具有更高单价) 有望迎来规模放量 [3] * **澜起科技产品线拓展与远期展望**:公司近期发布了AEC Retimer,后续Switch芯片也有望正式发布,伴随CXL拓展芯片、MRCD/MDB、PCIe Retimer、PCIe Switch的规模起量,公司远期利润有望达到100-150亿人民币,给予30倍市盈率,目标市值看3000-4500亿人民币 [3] 其他重要内容 * **Rambus短期风险**:因封测品质因素影响一季度产品交付,导致Q1业绩指引不及预期 [1]
海光信息-澜起科技-网宿科技
2026-02-02 10:22
涉及的行业与公司 * **行业**:AI算力产业链、云计算与CDN、半导体与芯片设计、服务器与数据中心 * **公司**:海光信息、澜起科技、网宿科技、鼎通科技、中科曙光、曙光数创、飞荣达、英维克、工业富联、税友股份、科大讯飞[1][2][13] 核心观点与论据 一、 市场趋势与资本开支 * **北美资本开支高增长**:北美五大云服务提供商(CSP)2026年资本开支预计接近**7,000亿美元**,较2025年的**4,000亿美元**增长**50%**,主要基于Meta和微软的超预期数据[1][4] * **国内资本开支先抑后扬**:受H20/H200影响,2025年国内互联网资本开支放缓,但预计2026年有望达到**5,700-6,000亿人民币**[1][4] * **2027年增长潜力**:预计2027年北美资本开支仍保持**40%左右**增长,而国内因AI推理应用深化,增速有望超越海外[1][4] 二、 AI需求侧变化 * **AI推理需求爆发**:MudBot等Agent应用推动多线程任务管理和人机交互,导致流量、数据及算力消耗**指数级增长**[1][5] * **流量结构转变**:流量从人为主转向机器人主导,实现**24小时不间断**使用,一次可使用数百款APP[1][5] 三、 AI供给侧技术进展 * **服务器架构演进**:未来超级节点(超节点)技术将内存池化、高速互联并统一协议与IP,显著提高集群效率[6] * **技术普及趋势**:随着超级点技术普及和对推理性能要求提高,该技术将成为时代主要趋势[6] 四、 海光信息 * **产品进展**:深算3号已量产,支持**FP8/FP4**精度;深算4号性能预计翻倍,有望成国内最强单卡AI芯片[3][7] * **CPU性能提升**:海光4号新版本核数突破**128核**甚至达到**160核**,多线程数量增加,大幅提升AI推理效率[7] * **供应链优势与估值**:基于国产供应链进行规模化量产,在国家级重大项目中具有优势[7];其CPU估值为**9,000亿人民币**,GPU估值为**1.3万亿人民币**[3][7] * **市值预期**:2026年市值目标为**1.2万亿**,2028年预计达到**2万亿以上**[8] 五、 澜起科技 * **业务布局**:内存互联芯片(占总收入**90%**)、PCIe CXL芯片(**5%**)、与CPU和服务器相关的产品(**5%**)[10] * **技术领先与增长点**:在CXL领域取得显著进展,2022年5月发布全球首款CXL MXC芯片[10];其CXL芯片有望被谷歌下一代TPU采用,带来巨大增量市场[1][10] * **产品单价提升潜力**:PCIe Retimer和Switch产品有望显著提高单价,特别是Switch单价可能从**50美元**提升至**1,200美元**,增幅接近**20倍**[10] 六、 网宿科技 * **市场地位**:中国最大的第三方中立CDN公司,CDN业务占收入约**60%至70%**[11] * **行业机遇**:受益于谷歌云CDN涨价(北美地区价格上涨近**一倍**),预示海外市场CDN和云计算价格战趋势反转,大厂战略调整将为传统CDN厂商带来市场份额和盈利机会[1][2] * **业绩与估值潜力**:预计2026年净利润达**10亿元**,若考虑涨价因素,利润弹性极大[3][12];目前市值接近**400亿元**,若估值达30倍PE或更高,估值空间至少有**50%以上**增长潜力[12] 其他重要内容 * **近期市场表现**:2026年第一季度,海光信息市值涨幅超过**900亿元**,成为1月市值绝对值涨幅领先的A股公司;澜起科技自2025年11月20日发布深度报告以来,涨幅超过**60%**[2] * **潜在涨价压力**:自2025年底以来英特尔与AMD不断提示涨价,随着需求回升,本土AI芯片可能面临涨价压力[7] * **产业链相关公司**:除核心三家公司外,还提及鼎通科技、中科曙光、曙光数创、飞荣达、英维克、工业富联,以及应用厂商税友股份和科大讯飞值得关注[13]
收购XConn将补全内存池化核心拼图 富国银行维持迈威尔科技(MRVL.US)“增持”评级
智通财经网· 2026-01-07 15:01
公司交易与财务影响 - 迈威尔科技拟以5.4亿美元收购XConn,交易支付方式为60%现金与40%股票 [1] - 此次收购被认为对内存池化技术至关重要,并有望在近期提升公司收益 [1] - 预计被收购业务将从本财年下半年开始贡献收入,到2028财年贡献额可能高达1亿美元,并将有助于提升2027财年的收益 [1] 技术战略与行业定位 - 收购进一步证明了内存池化技术在高性能硬件解决方案中的重要性,特别是在支持更大AI模型、更大上下文窗口及提升推理性能方面 [1] - 迈威尔科技有能力将其CXL内存扩展控制器与XConn的CXL交换机结合起来,形成协同解决方案 [1] - 在AI 2.0时代,算力发展的核心矛盾已从“算得不够快”演变为“数据搬运跟不上” [2] - CXL技术是从底层物理架构对传统计算模型的一次革新,通过内存解耦、容量扩展与通信协同三个方向提升AI算力 [2] - CXL技术通过资源池化、容量解耦与一致性通信,将碎片化的数据中心重构为协同工作的整体,是实现超大规模、高性能AI基础设施的必经之路 [2] - CXL是AI算力从“单体性能竞赛”转向“集群效能博弈”的关键技术底座 [2]
CXL 4.0发布:带宽提高100%
半导体行业观察· 2025-11-24 09:34
CXL 4.0 规范技术要点 - CXL联盟在SC25大会上发布CXL 4.0规范,将传输速度从64GTs提升至128GTs,带宽翻倍且无额外延迟 [2][4][11] - 新规范支持设备间高速数据传输,保留256B Flit格式,引入原生x2宽度概念以支持更大扇出,并支持最多四个重定时器以扩展通道覆盖范围 [7][11][12] - CXL 4.0实现捆绑端口功能,能够合并主机和CXL加速器之间的设备端口以提高连接带宽,尤其有益于AI应用 [6][7][12] - 规范提升了内存的可靠性、可用性和可维护性,旨在提高错误可见性和维护效率,同时完全向下兼容CXL 3.x、2.0、1.1和1.0版本 [5][6][12] CXL技术对人工智能的重要性 - AI工作负载正重塑数据中心基础设施,训练基础模型需要巨大内存容量,常超过单个GPU可用容量,CXL通过内存池化提供变革性解决方案 [14][15][19] - CXL是一种开放标准互连技术,专为连接CPU、GPU、加速器和内存设备设计,具有低延迟和完全缓存一致性,确保异构处理器间数据同步 [19] - CXL引入内存池化功能,允许内存动态分配给不同设备,消除闲置容量,提高利用率,并支持分层内存以平衡速度、容量和成本 [17][19] - CXL使业界从静态孤立架构转向灵活网络计算,为下一代AI系统铺平道路,支持大型语言模型跨节点内存池化,减少内存重复使用 [17][19][20] CXL技术带来的行业变革 - CXL技术引入光纤网络拓扑、多级交换及跨主机一致性内存共享,使整个服务器机架能作为统一灵活的AI架构运行 [21] - 超大规模数据中心、云服务提供商和高性能计算设施已开始试点部署CXL,从英特尔、AMD到三星、HPE等厂商已将其纳入产品路线图 [21] - CXL代表从以服务器为中心的计算到以架构为中心的AI基础设施的转折点,为下一代可扩展的AI和LLM系统奠定基础 [21]
英特尔与阿里云深度合作 CPU重新定义“中央调度”
环球网资讯· 2025-10-21 13:54
合作成果与产品发布 - 英特尔与阿里云在2025云栖大会上联合宣布,基于新一代至强®6处理器的云实例与存储方案已落地,涵盖第九代ECS g9i实例、u2i普惠算力实例、内存增强型实例re8以及支持CXL 2.0内存池化的磐久AI存储服务器 [1] - 高性能、高弹性、低TCO(总体拥有成本)正成为全球云厂商竞速的关键指标 [1] 硬件统一化与资源调度 - 通过英特尔的BIOS Setting关核技术,能用同一颗120核的至强®6处理器动态调配出72核、96核等不同规格的实例,服务于高性能计算、通用企业负载和成本敏感型场景 [2] - 硬件统一化极大地提升了云厂商的资源利用率和弹性调度能力 [2] - 阿里云在全球29个区域、91个可用区中部署同一套硬件架构,通过软件定义方式实现资源动态分配,以应对突发性算力需求 [4] CXL内存池化技术 - 双方合作推出的CXL 2.0内存池化技术被视为下一代云架构的重要突破,实现了内存容量的灵活扩展,并通过热插拔、多通道交织访问等机制提升系统可靠性与可维护性 [6] - 阿里云瑶池数据库团队基于CXL 2.0 Switch技术打造的PolarDB数据库专用服务器,可实现百纳秒级低延迟和数TB/s带宽吞吐的远程内存访问,使内存资源池化可共享、按需可调度 [6] AI驱动的算力异构化与CPU角色 - 随着AI模型从“单一巨量化”走向“大小模型协同”,算力需求呈现分层、异构的特征 [7] - 英特尔在CPU层面集成AMX矩阵加速指令集支持FP16、BF16等精度计算,并通过Gaudi AI加速器、Arc显卡等产品组合覆盖从推理到训练、从端到云的全场景需求 [7] - 至强6配备AMX可运行3B规模的模型,在GPU集群中作为“机头CPU”承担数据预处理、I/O调度、资源池化管理等任务,扮演“统筹者”角色 [7] - 在向量检索、视频预处理、自动驾驶数据清洗等场景,基于至强6的实例展现出显著性能提升和性价比优势,例如小鹏汽车采用g9i实例后,每日PB级数据预处理吞吐大幅提升且成本下降 [7] 稳定性与工程能力 - 阿里云基于英特尔架构的实例稳定性比业界领先水平高一个数量级,得益于双单路服务器设计、故障热迁移、硬件预判等超大规模集群运维经验 [8] - 软硬一体优化成为差异化竞争力来源,例如阿里云在至强6平台上率先实现CXL 2.0内存池的产品化,并结合自研AliSCM持久内存、QAT压缩加速、DMA数据直接存取等技术构建全链路优化能力 [8] 全球化交付与全链路成本考量 - 阿里云商业化规模远超集团内部需求,服务覆盖全球多个区域,其技术方案需具备高度标准化与适应性,需综合考虑性能、功耗、机房密度、资源售卖率、碎片化资源利用等全链路成本 [9] 生态协同与战略布局 - 英特尔展示了与通义千问基于OpenVINO在AI PC端的智能体工作流,体现其“云-边-端”协同的战略布局 [9] - 阿里云通过Model as a Service、容器计算服务ACS等产品,将IaaS、PaaS、MaaS能力纵向整合以降低AI应用开发门槛 [9] - AI正从技术探索进入规模化应用期,模型迭代速度加快、成本压力凸显,倒逼基础设施走向更高效、更开放、更易用的架构 [9] 下一代云计算架构展望 - 未来的数据中心将是CPU、内存、存储、网络、加速器等各类资源池化后,按业务需求动态组合的“活系统” [10] - 英特尔与阿里云的合作是对当前算力挑战的回应,也是对下一代云计算架构的提前布局 [10]