Compute Express Link (CXL)
搜索文档
SK Telecom and Panmnesia Sign Partnership to Innovate AI Data Center Architecture, Enhancing Cost Efficiency and Performance
Businesswire· 2026-03-04 07:00
战略合作与目标 - Panmnesia与韩国最大电信运营商及领先AI公司SK Telecom签署战略合作伙伴关系,双方将在MWC26上共同致力于开发基于CXL的下一代AI数据中心架构 [1] - 合作旨在应对大规模AI服务增长带来的GPU部署扩张和成本上升问题,双方聚焦于超越简单的GPU扩展,开发能更高效利用现有计算资源的技术,以提升成本效益和性能 [2] 当前AI数据中心架构的挑战 - 现代AI数据中心通常以固定的CPU、GPU、内存比例配置服务器,随着AI模型日益多样化和规模扩大,这种架构在成本效益方面面临局限 [4] - 挑战一:传统AI数据中心中,CPU、GPU、内存被静态地捆绑在单个服务器内,导致一台服务器的闲置资源难以被其他服务器利用,特别是当内存容量不足时,往往需要部署不必要的额外GPU,这降低了GPU利用率并增加了资本和运营支出 [4] 提出的解决方案:分解式架构与CXL互联 - 为解决资源静态捆绑问题,双方提出一种分解式架构,将计算资源按类型分离,并根据需求灵活组合,通过CXL Fabric Switch在机架层面实现CPU、GPU、内存的互连,从而动态分配每个AI工作负载所需的资源,最小化资源浪费并最大化成本效益 [5][6] - 挑战二:传统AI数据中心中,对大规模AI训练和推理至关重要的GPU集体操作依赖于以太网等通用网络,这引入了数据复制和软件干预,导致性能下降 [7] - 为解决网络瓶颈,双方将消除计算路径中的网络参与,转向使用CXL进行互连,使资源能够在不经过传统网络的情况下实现连接 [8] 核心技术:链路控制器与CXL Fabric Switch - 该架构的核心是链路控制器,这是一个可集成到CPU、GPU、AI加速器、内存设备中的电子元件,它使得设备内部能够通过CXL直接通信,将先前需要多次数据复制的数据传输替换为简单的内存访问操作 [9] - 该架构实现了无需软件干预的GPU到GPU以及GPU到内存通信,显著提升了处理效率,从而使AI数据中心无需增加更多GPU即可提供更高性能 [9] - Panmnesia将应用其链路解决方案(包括作为物理连接核心的CXL Fabric Switch和负责逻辑集成的链路控制器)来实现基于CXL的AI机架,将此前局限于单个服务器内部的链路架构扩展到服务器边界之外,达到机架及以上级别 [12] 合作分工与验证计划 - SK Telecom将主导针对实际部署优化的架构设计,利用其在大规模AI数据中心建设、运营以及AI模型开发和商业化方面的专业知识 [11] - 两家公司计划在今年年底前通过运行真实的AI模型,全面评估GPU和内存利用率、延迟和吞吐量,以验证下一代AI数据中心架构,随后计划在大型AI数据中心环境中进行概念验证部署,并追求商业化和业务扩展 [13] 市场观点与产品进展 - SK Telecom高管指出,AI数据中心的竞争力已超越单纯的GPU性能,取决于包含内存和数据流的系统级优化,此次合作将有助于缓解因数据移动和供应无法跟上计算性能增长而被称为“内存墙”的结构性瓶颈,从而提升AI数据中心的性能和经济效率 [14] - Panmnesia首席执行官表示,下一代AI基础设施将由通过多样化链路半导体创造的架构来定义,而非单个设备的性能,公司与SK Telecom旨在提出一个高效AI数据中心模型,为全球市场树立新标准 [14] - 合作项目中使用的CXL Fabric Switch(包括PCIe 6.4/CXL 3.2交换器样品)和链路控制器(包括PCIe 6.4/CXL 3.2控制器,可作为IP或定制硅解决方案提供)已可供Panmnesia的合作伙伴申请 [15] - Panmnesia正在原型阶段之后推进部署准备,通过在真实AI计算环境中进行长时间运行测试,以验证数据传输稳定性和互操作性 [16] - 将Panmnesia链路技术集成到其CPU、GPU、AI加速器、内存设备中的公司,有望通过建立超越单个设备级别验证的系统级集成可靠性,进一步增强其在AI数据中心市场的竞争力 [17]
Astera Labs' Leo CXL Smart Memory Controllers on Microsoft Azure M-series Virtual Machines Overcome the Memory Wall
Globenewswire· 2025-11-19 05:30
合作与技术部署 - Astera Labs宣布其Leo CXL智能内存控制器已在微软Azure M系列虚拟机的预览中启用,供客户评估针对特定工作负载的CXL内存扩展能力[1] - 此次合作是业界首个宣布的CXL附加内存部署,旨在解决内存密集型工作负载日益增长的需求[2] - 公司首席业务官表示,与微软的合作体现了其致力于推进云基础设施内存连接解决方案的承诺[4] 产品性能与优势 - Leo CXL智能内存控制器支持CXL 2.0,每个控制器最高支持2TB内存容量,使云服务提供商能将服务器内存容量扩展超过1.5倍[3] - 该技术解决了企业工作负载需求,包括内存数据库、大数据分析、AI推理应用、大语言模型的KV缓存存储、机器学习工作负载和推荐系统,大规模内存容量显著降低了总拥有成本[3] - CXL技术通过突破CPU附加DRAM的限制实现内存扩展,为云提供商和企业提供了扩展内存容量和性能的灵活性[2] 行业影响与公司定位 - CXL技术突破了传统服务器架构面临的“内存墙”根本性瓶颈,该瓶颈随着组织处理日益庞大的数据集而出现[2] - Astera Labs是一家为机架级AI基础设施提供基于半导体的连接解决方案的领导者,其智能连接平台整合了CXL、以太网、PCIe和UALink等基于半导体的技术[6] - 公司通过与超大规模云厂商和生态系统伙伴合作,旨在释放现代AI的全部潜力,将不同组件统一为具有端到端纵向和横向扩展连接能力的灵活系统[6]
Marvell Extends CXL Ecosystem Leadership with Structera Interoperability Across All Major Memory and CPU Platforms
Prnewswire· 2025-09-02 21:00
产品与技术里程碑 - Marvell的Structera™ CXL内存扩展控制器和近内存计算加速器已成功完成与美光科技、三星电子和SK海力士的DDR4及DDR5内存解决方案的互操作性测试 [1] - 此前,该产品系列已宣布与AMD EPYC CPU和第五代英特尔至强可扩展平台成功互操作,使其成为唯一一个在两大领先CPU架构和三大主要内存供应商均完成互操作性测试的CXL 2.0产品家族 [1] 互操作性的价值与客户利益 - 互操作性验证对于应对日益复杂的数据中心应用至关重要,它能实现可扩展的系统设计、降低集成风险并简化认证流程 [2] - 该验证为原始设备制造商和云服务提供商提供了优化系统设计的灵活性,同时保持了供应链的灵活性 [2] - 该产品确保了跨不同内存和CPU技术的兼容性与灵活配置选项,从而加速认证并实现可扩展部署 [3] 商业模式与集成灵活性 - Marvell提供灵活的商业模式,支持创新的部署策略,允许根据特定工作负载需求定制产品配置,并同时支持标准和定制部署模型 [3] - Structera IP可用于集成到定制芯片设计中,使客户能够将Marvell经过硅验证的CXL技术直接嵌入其芯片,从而优化特定工作负载的性能、能效和系统成本 [4] - IP产品支持广泛的集成模型,从全定制SoC到紧密耦合的加速器,在利用成熟的CXL生态系统的同时提供设计灵活性 [4] 行业合作伙伴评价与产品细节 - 美光科技云内存产品副总裁指出,CXL将有助于解决可能消耗高达数百TB内存容量的苛刻工作负载的瓶颈,与Marvell的合作有望为AI新前沿提供可扩展、高效的CXL基础设施 [5] - 三星电子副总裁表示,与Marvell的合作确保客户可以放心地将Structera与三星DDR内存部署在可靠的高性能系统中 [5] - SK海力士下一代产品规划负责人表示,与Marvell的验证工作支持了双方使内存扩展更易获取和灵活的共同目标,为客户提供了构建面向未来的架构所需的工具 [5] - Structera产品线包括两个CXL设备系列:A系列近内存加速器集成16个Arm Neoverse V2核心和多个内存通道,针对深度学习推荐模型和机器学习等高带宽应用;X系列内存扩展控制器支持为通用服务器增加TB级内存,针对内存数据库等高容量应用 [5] - Structera CXL设备家族是业界首个支持四个内存通道、集成内联LZ4压缩并采用5纳米制造工艺的产品 [5]