广发证券:SRAM提升AI推理速度 相关架构进入主流大厂视野
智通财经·2026-02-27 15:35

SRAM在AI芯片架构中的核心优势 - SRAM作为集成在CPU/GPU计算核心附近的片上存储 具备纳秒级访问时延与高度确定性的带宽特性 但容量小且成本高 [1] - 在大模型应用中 相比依赖外置HBM SRAM可显著降低权重与激活数据的访问延迟与抖动 从而改善Time-to-First-Token与尾时延表现 [1][2] - Groq的LPU单芯片集成约230MB片上SRAM 存储带宽高达80TB/s 而GPU片外HBM的内存带宽约为8TB/s [2] - Cerebras的WSE-3芯片集成44GB SRAM 片上存储带宽达21PB/s [3] SRAM架构AI芯片的性能表现 - 以Llama 3 70B模型为例 Groq LPU芯片在不同上下文长度下均能维持稳定推理速度 达275-276 token/s 显著优于其他推理平台 [2] - Cerebras WSE-3芯片在OpenAI GPT OSS 120B推理任务中实现超过3000 tokens/s的输出速度 较主流GPU云推理快约15倍 [3] - OpenAI在Cerebras AI加速器上运行的GPT-5.3-Codex-Spark预览版 支持超过1000 tokens/s的代码生成响应速度 [3] SRAM架构获得产业巨头认可并进入主流视野 - 2025年12月 英伟达斥资200亿美元获得Groq知识产权的非独家授权 包括其语言处理单元和配套软件库 并引入Groq核心工程团队 [1][4] - 2026年2月 Cerebras完成10亿美元F轮融资 估值达230亿美元 [4] - 2026年2月 OpenAI与Cerebras签署100亿美元合同 部署多达750兆瓦的定制AI芯片 [1][4] 投资观点总结 - AI记忆持续扩展模型能力边界 AI Agent等应用加速落地 [5] - AI记忆相关上游基础设施的价值量与重要性将不断提升 [5]