Amazon.com (AMZN) and Cerebras Partner for World’s Fastest AI Inference on Amazon Bedrock
公司与合作伙伴 - 亚马逊公司旗下AWS与Cerebras Systems于3月13日宣布合作,旨在提供全球最快的人工智能推理解决方案,该方案将于未来几个月在Amazon Bedrock上推出 [1] - 此次合作引入了一种“分解式推理”模型,将计算工作负载在AWS Trainium驱动的服务器和Cerebras CS-3系统之间进行拆分 [1] 技术架构与优势 - 该专门架构旨在为生成式AI应用和大语言模型工作负载实现相较于当前云产品在速度和性能上的巨大提升 [2] - 解决方案的技术核心在于优化AI推理的两个不同阶段:提示处理(预填充)和输出生成(解码) [2] - AWS Trainium负责处理并行、计算密集型的预填充阶段,而Cerebras CS-3(提供显著高于传统GPU的内存带宽)则专用于串行、内存密集型的解码阶段 [2] - 这些组件通过AWS的弹性结构适配器网络连接,并通过AWS Nitro系统确保安全,实现了高速数据传输与企业级隔离和安全性 [3] 行业地位与未来计划 - 此次合作标志着云服务提供商首次将Cerebras的硬件集成到分解式推理服务中 [3] - AWS计划在2026年晚些时候扩展该产品,在组合硬件上运行领先的开源大语言模型及其自有的Amazon Nova模型 [3] 公司业务概览 - 亚马逊公司通过在线和实体店在北美及国际范围内从事消费品零售、广告和订阅服务 [4] - 公司业务分为三个部分:北美、国际和亚马逊网络服务/AWS [4]