Cerebras晶圆级系统
搜索文档
超百亿美元!OpenAI签下AI芯片大单
新华网财经· 2026-01-16 11:34
OpenAI与Cerebras的重大合作 - 核心观点:OpenAI与美国AI芯片初创公司Cerebras达成一项价值超过100亿美元的重大合作,计划部署750兆瓦的Cerebras晶圆级系统,目标在2028年建成全球规模最大的高速AI推理平台 [1] - 合作细节:该合作将于2026年起分阶段落地,并于2028年完成,合作价值超过100亿美元 [1] - 合作意义:Cerebras CEO表示,合作意味着将全球领先的AI模型引入全球最快的AI处理器,实时推理将彻底变革AI领域,开启构建和交互AI模型的全新方式 [1] Cerebras公司及其技术优势 - 公司背景:Cerebras成立于2015年,致力于打造全球最快的人工智能推理与训练平台,其CS-2和CS-3系统已应用于医学研究、密码学、能源及AI智能体等领域,并向开发者和企业提供云服务 [4] - 技术特点:Cerebras系统的独特之处在于将海量计算能力、内存和带宽集成到单个巨型芯片上,从而消除了传统硬件上制约推理速度的瓶颈 [4] - 性能表现:在代码及语音聊天任务上,基于Cerebras的大语言模型所给出的响应速度比基于GPU的系统快高达15倍 [4] 行业对高速推理的需求与趋势 - 市场需求:OpenAI与Cerebras的交易显示出市场对推理算力的强烈需求,以及科技巨头对于推理速度的重视与日俱增 [1] - 速度的重要性:技术发展史上,速度的飞跃(如处理器频率从千赫兹到吉赫兹,网络从拨号到宽带)是推动技术普及的关键,低延迟推理解决方案能提供更快的响应速度、更自然的交互体验、更新的应用场景与更广泛的普惠程度,并提升以智能体为增长引擎的市场生产力 [5] 行业内的其他重大交易 - 英伟达收购Groq:2025年12月,AI芯片初创公司Groq与英伟达签署了一份非独家许可协议,部分员工将加入英伟达,据CNBC报道,这项交易价值200亿美元现金,是英伟达迄今最大的一笔交易 [5] - 交易目的:英伟达计划将Groq的低延迟处理器整合到其AI工厂架构中,以进一步扩展平台,支持更广泛的AI推理和实时工作负载 [6]
超百亿美元!OpenAI签下AI芯片大单
上海证券报· 2026-01-15 23:47
合作项目概况 - OpenAI与Cerebras宣布合作部署750兆瓦的Cerebras晶圆级系统 项目价值超过100亿美元 计划于2026年起分阶段落地 2028年完成 建成后将成为全球规模最大的高速AI推理平台 [1] - Cerebras首席执行官表示 合作意味着将全球领先的AI模型引入全球最快的AI处理器 实时推理将彻底变革AI领域 开启构建和交互AI模型的全新方式 [1] 行业趋势与意义 - 此次交易显示出市场对推理算力的强烈需求 表明科技巨头对于推理速度的重视与日俱增 [1] - 低延迟推理解决方案能提供更快的响应速度、更自然的交互体验、更新的应用场景与更广泛的普惠程度 对以智能体为增长引擎的市场而言意味着生产力的提升 [4] - 速度在推动技术普及上发挥重要作用 例如个人电脑产业依赖运行频率从千赫兹到吉赫兹的飞跃 现代互联网依赖从拨号上网到宽带网络的迭代 [4] Cerebras公司技术优势 - Cerebras成立于2015年 致力于打造全球最快的人工智能推理与训练平台 其CS-2和CS-3系统已应用于医学研究、密码学、能源以及AI智能体等领域 同时公司也向开发者和企业提供云服务 [4] - Cerebras系统的独特之处在于将海量计算能力、内存和带宽集成到单个巨型芯片上 从而消除了传统硬件上制约推理速度的瓶颈 [4] - 在代码及语音聊天任务上 基于Cerebras的大语言模型响应速度比基于GPU的系统快高达15倍 [4] 行业竞争动态 - 2025年12月 AI芯片初创公司Groq与英伟达签署非独家许可协议 部分员工将加入英伟达 该交易价值200亿美元现金 是英伟达迄今最大的一笔交易 [5] - 英伟达计划将Groq的低延迟处理器整合到其AI工厂架构中 以进一步扩展平台 支持更广泛的AI推理和实时工作负载 [5]
OpenAI签下近700亿AI芯片巨单
36氪· 2026-01-15 09:43
合作概览 - OpenAI与美国AI芯片公司Cerebras联合宣布,将部署750兆瓦的Cerebras晶圆级系统,为OpenAI客户提供服务 [1] - 该合作将于2026年起分阶段落地,并于2028年之前完成,建成后将成为全球规模最大的高速AI推理平台 [1] - 据知情人士消息,这笔交易价值超过100亿美元(约合人民币697.36亿元) [1] 公司背景与关联 - Cerebras打造的芯片以“大”著称,能在一块芯片上塞入4万亿颗晶体管 [1] - OpenAI认为,Cerebras芯片的速度来自于将庞大的计算量、内存和带宽集成在一块巨型芯片上,消除了传统硬件推理速度下降的瓶颈 [1] - Cerebras上大模型的响应速度,是基于GPU的系统的15倍 [1] - OpenAI联合创始人兼CEO萨姆·阿尔特曼同时也是Cerebras的个人投资者 [1] - OpenAI和Cerebras几乎同时创立,自2017年以来,双方团队频繁会面,分享研究成果 [2] - 根据法庭文件显示,早在2017年,OpenAI就曾讨论过与Cerebras建立合作关系的可能性 [2] 合作细节与动机 - OpenAI称,将Cerebras整合进其计算解决方案组合,旨在进一步提升AI响应速度 [2] - OpenAI基础设施负责人表示,随着工程师反馈现有芯片在运行AI应用时速度仍有提升空间,尤其是在编程相关任务上,公司开始认真评估并推动与Cerebras的合作 [3] - 该负责人提到,算力是衡量OpenAI收入潜力的最关键因素,过去两年里,公司的整体计算能力几乎每年翻倍,收入增长也呈现出同样的趋势 [3] - Cerebras CEO称,OpenAI和Cerebras于去年秋季开始正式洽谈合作事宜,并在感恩节前签署了合作意向书,认为目前推动市场的因素是“对快速计算的非凡需求” [2] - OpenAI一直在寻找比英伟达芯片更便宜、更高效的替代方案 [2] Cerebras公司动态 - Cerebras正在洽谈以220亿美元(约合人民币1534.20亿元)的估值融资10亿美元(约合人民币69.74亿元),这将使其估值升至原有的近3倍 [1] - 知情人士称,Cerebras仍计划推进IPO [1] - Cerebras成立于2016年,在2024年提交上市申请时披露,其大部分收入来自一家客户——总部位于阿布扎比的G42公司 [3] - 次年,Cerebras撤回了上市计划,转而通过私募融资11亿美元(约合人民币76.71亿元),彼时Cerebras的投后估值为81亿美元(约合人民币564.86亿元) [3] - 公司CEO称,Cerebras此后已与IBM和Meta签署了新的合作协议 [3] - 市场研究公司PitchBook的数据显示,该公司已累计融资18亿美元(约合人民币125.52亿元),还不包括新筹集的资金 [3] 行业趋势 - 随着大模型进入大规模商用阶段,如何在更短时间内、以更低成本完成推理,正成为影响用户体验、应用上限乃至商业化能力的关键 [3] - 虽然英伟达GPU仍是当前AI算力生态的绝对主流,但包括晶圆级架构、定制ASIC在内的多元算力路线,正在被头部模型厂商纳入基础设施布局 [4] - OpenAI去年宣布正与博通合作开发定制芯片,并单独签署协议,使用AMD的新型MI450芯片 [2]