内存池化
搜索文档
CXL 4.0发布:带宽提高100%
半导体行业观察· 2025-11-24 09:34
CXL 4.0 规范技术要点 - CXL联盟在SC25大会上发布CXL 4.0规范,将传输速度从64GTs提升至128GTs,带宽翻倍且无额外延迟 [2][4][11] - 新规范支持设备间高速数据传输,保留256B Flit格式,引入原生x2宽度概念以支持更大扇出,并支持最多四个重定时器以扩展通道覆盖范围 [7][11][12] - CXL 4.0实现捆绑端口功能,能够合并主机和CXL加速器之间的设备端口以提高连接带宽,尤其有益于AI应用 [6][7][12] - 规范提升了内存的可靠性、可用性和可维护性,旨在提高错误可见性和维护效率,同时完全向下兼容CXL 3.x、2.0、1.1和1.0版本 [5][6][12] CXL技术对人工智能的重要性 - AI工作负载正重塑数据中心基础设施,训练基础模型需要巨大内存容量,常超过单个GPU可用容量,CXL通过内存池化提供变革性解决方案 [14][15][19] - CXL是一种开放标准互连技术,专为连接CPU、GPU、加速器和内存设备设计,具有低延迟和完全缓存一致性,确保异构处理器间数据同步 [19] - CXL引入内存池化功能,允许内存动态分配给不同设备,消除闲置容量,提高利用率,并支持分层内存以平衡速度、容量和成本 [17][19] - CXL使业界从静态孤立架构转向灵活网络计算,为下一代AI系统铺平道路,支持大型语言模型跨节点内存池化,减少内存重复使用 [17][19][20] CXL技术带来的行业变革 - CXL技术引入光纤网络拓扑、多级交换及跨主机一致性内存共享,使整个服务器机架能作为统一灵活的AI架构运行 [21] - 超大规模数据中心、云服务提供商和高性能计算设施已开始试点部署CXL,从英特尔、AMD到三星、HPE等厂商已将其纳入产品路线图 [21] - CXL代表从以服务器为中心的计算到以架构为中心的AI基础设施的转折点,为下一代可扩展的AI和LLM系统奠定基础 [21]
英特尔与阿里云深度合作 CPU重新定义“中央调度”
环球网资讯· 2025-10-21 13:54
合作成果与产品发布 - 英特尔与阿里云在2025云栖大会上联合宣布,基于新一代至强®6处理器的云实例与存储方案已落地,涵盖第九代ECS g9i实例、u2i普惠算力实例、内存增强型实例re8以及支持CXL 2.0内存池化的磐久AI存储服务器 [1] - 高性能、高弹性、低TCO(总体拥有成本)正成为全球云厂商竞速的关键指标 [1] 硬件统一化与资源调度 - 通过英特尔的BIOS Setting关核技术,能用同一颗120核的至强®6处理器动态调配出72核、96核等不同规格的实例,服务于高性能计算、通用企业负载和成本敏感型场景 [2] - 硬件统一化极大地提升了云厂商的资源利用率和弹性调度能力 [2] - 阿里云在全球29个区域、91个可用区中部署同一套硬件架构,通过软件定义方式实现资源动态分配,以应对突发性算力需求 [4] CXL内存池化技术 - 双方合作推出的CXL 2.0内存池化技术被视为下一代云架构的重要突破,实现了内存容量的灵活扩展,并通过热插拔、多通道交织访问等机制提升系统可靠性与可维护性 [6] - 阿里云瑶池数据库团队基于CXL 2.0 Switch技术打造的PolarDB数据库专用服务器,可实现百纳秒级低延迟和数TB/s带宽吞吐的远程内存访问,使内存资源池化可共享、按需可调度 [6] AI驱动的算力异构化与CPU角色 - 随着AI模型从“单一巨量化”走向“大小模型协同”,算力需求呈现分层、异构的特征 [7] - 英特尔在CPU层面集成AMX矩阵加速指令集支持FP16、BF16等精度计算,并通过Gaudi AI加速器、Arc显卡等产品组合覆盖从推理到训练、从端到云的全场景需求 [7] - 至强6配备AMX可运行3B规模的模型,在GPU集群中作为“机头CPU”承担数据预处理、I/O调度、资源池化管理等任务,扮演“统筹者”角色 [7] - 在向量检索、视频预处理、自动驾驶数据清洗等场景,基于至强6的实例展现出显著性能提升和性价比优势,例如小鹏汽车采用g9i实例后,每日PB级数据预处理吞吐大幅提升且成本下降 [7] 稳定性与工程能力 - 阿里云基于英特尔架构的实例稳定性比业界领先水平高一个数量级,得益于双单路服务器设计、故障热迁移、硬件预判等超大规模集群运维经验 [8] - 软硬一体优化成为差异化竞争力来源,例如阿里云在至强6平台上率先实现CXL 2.0内存池的产品化,并结合自研AliSCM持久内存、QAT压缩加速、DMA数据直接存取等技术构建全链路优化能力 [8] 全球化交付与全链路成本考量 - 阿里云商业化规模远超集团内部需求,服务覆盖全球多个区域,其技术方案需具备高度标准化与适应性,需综合考虑性能、功耗、机房密度、资源售卖率、碎片化资源利用等全链路成本 [9] 生态协同与战略布局 - 英特尔展示了与通义千问基于OpenVINO在AI PC端的智能体工作流,体现其“云-边-端”协同的战略布局 [9] - 阿里云通过Model as a Service、容器计算服务ACS等产品,将IaaS、PaaS、MaaS能力纵向整合以降低AI应用开发门槛 [9] - AI正从技术探索进入规模化应用期,模型迭代速度加快、成本压力凸显,倒逼基础设施走向更高效、更开放、更易用的架构 [9] 下一代云计算架构展望 - 未来的数据中心将是CPU、内存、存储、网络、加速器等各类资源池化后,按业务需求动态组合的“活系统” [10] - 英特尔与阿里云的合作是对当前算力挑战的回应,也是对下一代云计算架构的提前布局 [10]
澜起科技推出CXL 3.1内存扩展控制器
证券时报网· 2025-09-01 17:14
产品发布与技术规格 - 澜起科技推出基于CXL3.1 Type3标准的内存扩展控制器芯片M88MX6852 并已向主要客户送样测试[1] - 芯片全面支持CXL mem和CXL io协议 致力于为下一代数据中心服务器提供更高带宽和更低延迟的内存扩展与池化解决方案[1] - 采用PCIe6.2物理层接口 支持最高64GT/s传输速率(x8通道) 可灵活拆分为2个x4端口[1] - 内置双通道DDR5内存控制器 支持速率高达8000MT/s 显著提升CPU与后端内存数据交换效率[1] - 集成双RISC-V微处理器作为应用处理单元和安全处理单元 支持动态资源配置 实时事件处理及硬件级安全管理[1] - 提供SMBus/I3C SPI JTAG等多种接口 便于系统集成和固件升级[1] 行业需求与应用价值 - 云计算资源池化需求迅猛增长 传统内存架构在带宽和扩展性方面成为性能瓶颈[2] - CXL内存池化技术可帮助数据中心实现内存资源弹性分配和高效利用 降低总体拥有成本[2] - 芯片兼容EDSFF(E3 S)和PCIe插卡形态 可广泛应用于服务器 全闪存阵列及边缘计算等多种部署环境[2] - CXL内存扩展与分层是未来数据中心计算的基础性技术 尤其有助于构建异构内存架构[2] - 技术方案与降低数据中心TCO目标契合 将加速内存分层与扩展技术在AI和云工作负载场景中的应用[2] 战略合作与行业认可 - 公司总裁表示该芯片标志着CXL技术领域的领先突破 推动了解耦式内存架构发展[2] - 三星电子认为芯片高带宽与卓越内存池化能力与其CXL内存解决方案强强协同 期待共同推动AI计算领域应用[2] - AMD指出合作将加速内存分层与扩展技术在AI和云工作负载场景中的应用落地[2] - 英特尔称该产品是迈向可扩展内存架构和拓展CXL生态系统的重要一步[3]