融资34亿,谷歌前TPU员工创业新型芯片,卡帕西也投了
36氪·2026-02-25 20:23

公司概况与市场定位 - 公司MatX是一家由谷歌TPU团队前核心成员创立的AI芯片初创企业,旨在设计专为大型语言模型(LLM)优化的芯片,挑战现有市场格局[2] - 公司最新完成了5亿美元(约合人民币34亿元)的B轮融资,领投方包括Jane Street和Situational Awareness LP,累计公开融资额已达6亿美元,估值达数十亿美元[13][14] - 公司计划与台积电合作,目标在2026年完成芯片设计,并于2027年开始出货,主要销售对象为少数几家领先的人工智能实验室[18] 核心团队与技术背景 - 创始人兼CEO Reiner Pope拥有深厚的软件和系统背景,是谷歌TPU软件栈早期重要成员,曾参与谷歌大型机器学习系统Sibyl的开发,并作为软件/硬件效率负责人参与了谷歌最大模型PaLM的训练[4][6] - 创始人兼CTO Mike Gunter拥有深厚的硬件和底层设计背景,是连续创业者,曾主导谷歌第一个硬件加速项目,将计算密集型任务性价比提高10倍以上,并担任谷歌ML芯片项目的首席工程师[5][6] - 团队组合实现了“软硬全栈”能力,CEO擅长模型与硬件的协同效率,CTO擅长从晶体管和微架构到系统的底层芯片设计[6] 产品技术与架构创新 - 公司核心产品是正在设计的“LLM专用芯片”MatX One,其设计目标是同时实现远高于其他芯片的吞吐量和最低的延迟,以应对长上下文、Agent循环等复杂真实工作流[1][7] - 芯片采用一种可拆分的脉动阵列架构,旨在结合大型脉动阵列的能效优势与在更小矩阵计算中的高利用率[7] - 芯片架构将SRAM优先设计的低延迟特性与HBM支持长上下文处理的能力相结合,并配合一套全新的数值计算方案,试图在单一芯片上融合当前主流的HBM(高带宽)和片上SRAM(低延迟)两种技术路线的优势[1][7][9] - 内部测试表明,根据每平方毫米的计算性能指标,其芯片性能可以超越英伟达即将推出的Rubin Ultra产品[17] 行业洞察与战略理念 - 公司认为当前AI芯片市场存在路线分化:一派以英伟达、谷歌为代表,重押HBM以解决大规模训练和吞吐问题;另一派以Cerebras Systems为代表,强调片上SRAM以主打推理场景的低延迟[1][9] - 公司战略是不在既有架构上修补,而是从零开始重构算力与存储的关系,设计一条全新的硬件产品线,旨在证明未来的AI芯片不必在“速度”和“容量”之间痛苦权衡[10] - 公司专注于为LLM从根本上设计芯片,甚至愿意为此放弃对小模型性能、低容量工作负载以及编程便捷性的优化[15] 融资进展与资金用途 - A轮融资1亿美元于2025年3月完成,由Spark Capital领投,投资者包括Jane Street Group、Daniel Gross、Nat Friedman、Adam D'Angelo等[14] - 最新B轮融资5亿美元,新增投资者包括Dwarkesh Patel、卡帕西、Stripe联创兼CEO Patrick Collison及其弟弟等,原有投资方Spark Capital等继续跟投[14][15] - 融资资金将用于预留产能和零部件,以确保芯片准备就绪后能迅速发货,使公司在资金层面与大型竞争对手站在同一起跑线上[19][20]