晶圆级引擎(WSE)芯片
搜索文档
这一巨头,看好大芯片
半导体行业观察· 2026-03-15 10:20
亚马逊云科技与Cerebras的合作 - 亚马逊云科技计划在其数据中心内部署Cerebras设计的晶圆级引擎芯片,为AI模型的推理业务提供算力[2] - 该合作是双方达成的多年协议,但未披露具体财务条款[2] - AWS计划将Cerebras芯片与其自研的Trainium芯片结合,以优化推理算力方案[3] AI算力市场的结构性转变 - 行业正从AI模型训练逐步转向推理,企业寻求更低延迟、更高响应速度的解决方案[2] - 图形处理器在训练环节强大,但对于推理任务并非理想选择[2] - 随着业务扩张,许多企业也在寻求供应商多元化[2] Cerebras公司的市场地位与融资情况 - Cerebras在2024年9月提交IPO申请,约一年后撤回[3] - 2025年2月,Cerebras宣布完成10亿美元新一轮融资,总融资额达26亿美元,投后估值约230亿美元[3] - 公司曾获得富达、Atreides、Benchmark等多家顶级机构投资[3] Cerebras芯片的技术定位与性能 - Cerebras将自家芯片定位为“超高速推理解决方案”[3] - 其芯片在处理推理中的“解码”环节时,速度最高可达英伟达GPU的25倍[3] - Cerebras首席执行官表示,其解决方案在追求高速token生成的应用中是“绝对最快的”[5] 对英伟达构成的竞争与挑战 - 该交易对英伟达构成新挑战,其正面临来自专用芯片厂商日益激烈的竞争[4] - 市场也在倒逼英伟达推出更快、更便宜的AI推理产品[4] - 2024年12月,英伟达已与芯片初创公司Groq签署200亿美元授权协议,并计划发布基于Groq技术的推理优化处理系统[4] 合作的市场影响与商业策略 - 此次合作旨在提供业内最快的推理算力之一,并将以高端服务形式定价[5] - AWS仍会保留仅基于Trainium的低速、低价算力服务,为客户提供不同性价比的选择[5] - 合作让Cerebras与Trainium的组合进入全球最大云平台,使其触达海量客户[4] 其他重要的行业动态 - 2025年1月,OpenAI已与Cerebras签署价值超100亿美元的协议,为ChatGPT提供算力[3] - OpenAI计划通过Cerebras芯片部署最高750兆瓦的算力[3] - 作为全球最大云服务商,AWS数据中心长期高度依赖其半导体部门Annapurna Labs自研的芯片[2]