哈佛辍学生拿下5亿美元融资:不造GPU,也要“绕开”英伟达

公司概况与融资 - 由哈佛大学辍学生Gavin Uberti和Chris Zhu于2022年创立,总部位于美国加州圣何塞 [12] - 近期完成近5亿美元新一轮融资,由Stripes领投,Peter Thiel等参与,公司估值达50亿美元,总融资额接近10亿美元 [1] - 核心团队包括联合创始人兼CEO Gavin Uberti(前哈佛数学研究员与AI编译器专家)、联合创始人Chris Zhu(前哈佛数学与高性能计算研究员)、联合创始人兼总裁Robert Wachen(前创业孵化器联合创始人)以及CFO Mark Ross(前Cypress公司CTO)[12][14] 产品与技术策略 - 公司专注于开发为Transformer架构AI模型设计的专用定制芯片(ASIC),名为Sohu [3] - Sohu芯片采用台积电4nm工艺制造,并集成HBM内存和服务器硬件 [10] - 技术策略高度专业化,仅专注于运行Transformer模型,不做通用GPU,通过“做减法”避免运行其他AI模型(如CNN、LSTM)的硬件和软件开销,旨在实现极致效率 [10] - 产品定位为生产级推理芯片,目标是在密集模型、稀疏模态、扩散等场景下,将每美元及每瓦的计算效率提升1个数量级 [7] 性能与效率主张 - 在特定测试配置下,运行Llama 70B模型时,Sohu芯片可实现每秒处理超过50万个token的吞吐量 [3] - 公司宣称,在运行文本、图像和视频Transformer时,Sohu的速度比英伟达Blackwell GB200 GPU快1个数量级,且价格更低 [4] - 一台由8颗Sohu芯片组成的服务器,据称可以替代160块英伟达H100 GPU [5] - 公司早期研究显示,在运行生成式AI模型时,其方案每美元性能可达传统图形处理器的140倍 [14] 市场背景与机遇 - 行业背景是AI大模型训练成本超过10亿美元,推理应用规模可能超过100亿美元,在此规模下,1%的性能提升就足以支撑价值5000万至1亿美元的定制芯片项目 [5] - 市场判断认为,过去几年计算密度(TFLOPS/mm²)仅提升了约15%,且随着大模型训练放缓、推理需求暴涨,算力需求正从单纯比拼FLOPS转向综合比拼成本、延迟和能耗 [3] - 据预测,到2026年底,英伟达数据中心累计销售额将超过5000亿美元,显示了巨大的潜在市场空间 [3] 应用案例与长远愿景 - 公司与Decart合作推出AI生成游戏Oasis,该游戏画面由生成模型实时合成,据称模型在Sohu上的运行速度提升了10倍以上 [11] - 公司长远愿景不仅限于文本生成模型,还包括为图像、视频生成以及蛋白质折叠模拟等不同类型的AI模型制造其他芯片 [16] 行业竞争格局 - 多家公司正探索AI推理专用芯片,作为GPU的替代方案,例如Meta的MTIA、亚马逊的Graviton和Inferentia [10] - 其他初创公司如Perceive(推出Ergo 2处理器)、Groq(推出LPU)以及Tenstorrent(基于RISC-V架构开发AI处理器)也展示了类似的专用化思路 [17]