Workflow
AI存算加速系统
icon
搜索文档
解读AI存算加速系统大机遇
2026-03-26 21:20
关键要点总结 一、 涉及的行业与公司 * **行业**:AI 算力基础设施,具体为 AI 存储/存算加速系统领域 [1] * **公司**:风行智远,一家致力于成为国产 AI 算力与加速应用领航者的公司,由国内头部智能存储公司部门分拆而来,成立于2023年底[2] 二、 市场机遇与行业瓶颈 * **市场机遇**:AI 存储已成为算力瓶颈,智算中心存储投资占比从 1% 提升至 10%-15%,中国市场复合年均增长率超过 40% [1][3] * **核心瓶颈**:存储系统成为性能短板。主流 NVMe SSD 单盘速度约 7 GB/s,理论上需要超过 1,000 个硬盘才能满足一张英伟达 B300 GPU (超过 10,000 GB/s) 的满速计算需求 [3] * **瓶颈根源**:传统架构下,CPU 负责管理和调度 SSD 数据,随着需求激增,CPU 调度瓶颈限制了向GPU传输数据的带宽 [3] * **新架构需求**:英伟达最新 Vera Rubin 架构提出“3.5 层存储”概念,旨在将数据直接从硬盘传输给显卡 [7] 三、 风行智远的核心技术与产品定位 * **公司定位**:国产 AI 算力与加速应用的领航者,通过颠覆性技术解决大模型时代的存储瓶颈 [2] * **技术定位**:介于海外 2.0 和 3.0 阶段之间的 2.5 代智能存储,兼具智能存储的计算能力和存储加速的核心能力 [1][5] * **核心产品形态**: 1. 具备 AI 算法加速功能的加速模组(类似硬盘)[12] 2. 由加速模组构成的、针对 GPU 优化的池化存储系统(类似英伟达架构中的 3.5 层)[12] 3. 支持企业级客户部署私有化大模型的一体机 [12][20] * **核心技术能力**: 1. **存算直通技术**:绕过 CPU 和文件系统,实现存储到计算的直通,将数据吞吐量提升 2-4 倍,节省 30%-40% 能耗 [1][4][11] 2. **边存边算技术**:硬盘在存储时对模型数据进行预处理,多块硬盘协同后直接交付给显卡,可节省约 11% 的训练总成本 [11] 3. **以存代算技术**:用智能硬盘(SSD)替代内存存储中间结果(如 KVCache),通过主动数据协处理弥补速度差距,将访存成本降至原方案的 1/50,综合业务成本降低 13% [1][11][14] 4. **存算一体化技术**:通过盘内算力替代主机 CPU 和 GPU 执行数据协处理,进行高效的算力卸载 [11] * **技术积累**:产品采用获得五项奖项的“一芯”DeepSSD 构建数据流架构,经测试算效比达到英伟达 T4 及 A100 平台的约 3.7 倍 [15] 四、 应用场景与价值体现 * **大模型训练**: * **价值**:优化故障恢复流程,支持故障后增量更新,无需频繁写入全量 Checkpoint,可节省约 11% 的训练总成本 [1][13] * **背景**:GPU 故障率较高(英伟达 GPU 故障周期不到两天),数据搬运耗时在优化后的智算中心占训练总时长的 15% 至 25% [7] * **大模型推理**: * **价值**:针对 DeepSeek 等 MoE 模型,可将推理总成本降低约 30% [1] * **具体案例 (DeepSeek 671B)**:将原先对 1TB 内存的需求,降低到每轮仅需获取约 71MB 乘以 8(硬盘数量)的数据量,访存成本降至原先的 1/50,对CPU的要求也从单颗成本超 5 万元降低到数千元级别 [14] * **预处理阶段**:通过智能存储加速系统,将传统流程中数据从原始存储到训练完成的六次搬运减少到三次,提升业务效率 [13] * **与 LPU 的关系**:风行智远的存算融合加速系统与英伟达的 LPU (Language Processing Unit) 在推理流水线中角色不同。LPU 负责解码过程,而该系统负责处理 LPU 无法容纳的中间数据,定位是服务好 LPU 和 GPU,处于英伟达架构中的存储 3.5 层 [16] 五、 市场竞争与生态合作 * **海外对标公司**: * **DDN**:英伟达御用存储系统公司,估值 50 亿美金,2024年收入超 10 亿美金 [6] * **VAST Data**:以色列公司,技术进入 3.0 阶段初期,估值已从 90 亿美金增长至 300 亿美金 [1][18] * **Pliops**:以色列公司,通过专用加速卡将 AI 训练和推理速度提升 8 至 21 倍,估值约 9.7 亿美金 [6] * **国内竞争格局**:公司表示目前没有直接竞争对手,已与国内技术和市场领先的大型人工智能系统公司进行联合联动和技术协同 [18] * **生态合作与客户**: * 已导入中国电信、中国移动和中国铁塔三大运营商 [1][15] * 已与国产GPU头部客户及多家上市GPU公司完成联动测试,并体现性能优势 [1][15][18] * 与浪潮、中国电子等国产云公司合作,推动存量数据中心的高效替换改造 [15] * **市场战略**:结合产业资源(国产GPU厂商、高技术企业、上市公司投资者),共同推动产品向一线互联网厂商导入,覆盖存量数据中心AI化改造和新建数据中心 [15][18] 六、 其他重要信息 * **团队背景**:核心团队来自国内头部智能存储公司,曾承担存算一体化国家专项。董事胡郁为科大讯飞联合创始人。CTO 曾担任 AMD 的 GPU 片上系统集成与系统验证负责人 [2] * **供应链与成本趋势**: * DRAM 和 HBM 持续涨价,若 HBM 价格再翻一倍,部分 AI 芯片公司考虑采用 SRAM 工艺自主设计芯片替代 [17] * 英伟达与合作伙伴开发更快的 AI SSD,目标绕过内存条和 CPU,直接从智能硬盘集群提取数据,预计可降低整体综合功耗 30% 至 40%,节省存储系统投资成本 40% 至 50% 以上 [17] * **产品交付与价值主张**: * 交付的是产品及配套方案。改造现有数据中心时,主要替换国外硬盘并加载软件,不改变物理接口 [20] * 为新建数据中心带来至少 2 至 4 倍的业务加速,并节省对内存和 CPU 的资源需求 [20] * **市场潜力**:若英伟达的“3.5层存储”架构普及,到 2027 至 2028 年,仅英伟达一家的存储采购规模就将占到全球闪存市场的 9.3% [7][17]