Workflow
AI推理芯片
icon
搜索文档
英伟达GTC前瞻:芯片架构路线图、CPO和推理产品成关注焦点
第一财经· 2026-03-16 09:00
文章核心观点 - 英伟达GTC大会是全球AI与半导体领域关注的焦点,公司将展示其未来数年的技术路线图与新产品,特别是在芯片架构、网络技术、推理芯片及自动驾驶等领域的进展,旨在巩固并扩大其行业领导地位 [3][6][7][9][10] 芯片架构与产品路线图 - 公司已公布未来几年芯片架构路线图,Blackwell Ultra之后,采用Rubin架构的芯片计划于2024年下半年推出,Rubin Ultra计划于2027年下半年推出,Feynman架构计划于2028年推出 [6] - 本届GTC大会的重点将是Rubin架构,并可能披露Rubin Ultra和Feynman的更多细节 [6] - 美银预测,公司将在大会上勾勒出从Rubin到2028年Feynman平台的完整产品线,跨越三代的清晰路线图将给予开发者和企业承诺,帮助公司保持领先对手的优势 [6] 网络技术与新动向 - 公司在网络和存储方面部署增多,关注点已不限于GPU,在1月CES上展示了包括NVLink 6交换机芯片、ConnectX-9 Spectrum-X超级网卡芯片等在内的6颗Rubin芯片 [7] - 本届GTC的核心关注点包括下一代AI芯片路线图和网络架构方案,特别是scale-out网络架构(如Quantum-X和Spectrum-X CPO交换机)的技术细节 [8] - 美银认为,公司将扩展网络中的光学器件,下一代102.4T Spectrum-6交换机及115T Quantum-X共封装光学器件将成为大规模AI集群部署的重要基础设施 [8] - 国际光通信大会OFC与GTC同期举行,引发外界猜测公司可能在共封装光学(CPO)等方面公开更多细节 [8] 推理芯片与Groq技术整合 - 公司于2023年12月与AI芯片初创公司Groq达成知识产权非独家协议,Groq核心团队加入公司,Groq的LPU以快速推理闻名 [9] - 公司CEO黄仁勋在采访中表示,公司或许可以添加Groq的技术,做一些尚未有人涉足的事情 [9] - 近期市场传言OpenAI将导入公司基于Groq技术开发的AI推理芯片,尽管公司尚未证实,但如何整合Groq技术仍是外界关注焦点 [9] - 美银分析师预计公司将推出协同设计的推理产品组合,包括用于推理工作负载的CPX芯片和用于低延迟应用的LPU,这些产品可能集成在下一代机架系统中 [9] 自动驾驶与物理AI - 在GTC大会前,公司发布了一段22分钟视频,展示CEO黄仁勋与汽车业务副总裁吴新宙共同乘坐一辆使用公司全栈自动驾驶软件平台DRIVE AV的汽车,期间未出现人工接管 [10] - 除了数据中心业务,公司在物理AI方面持续部署,汽车和机器人领域的新信息也将是本届GTC的关注焦点 [10]
英伟达扩张AI版图,Groq三星AI芯片订单或增长70%至1.5万片
华尔街见闻· 2026-03-10 17:59
AI推理芯片需求升温重塑三星晶圆代工订单格局 - AI推理芯片需求升温,正重塑三星晶圆代工的订单格局 [1] - 一方面,AI推理芯片需求快速扩张带来新客户与增量订单;另一方面,大客户的生产节奏变动已对同产线上的其他客户造成实质性冲击 [1] Groq订单与三星在推理芯片市场的切入 - AI芯片初创公司Groq已要求三星电子将其AI芯片产量从约9000片晶圆提升至1.5万片,增幅约70% [1] - Groq在三星电子的生产正从样品阶段迈向量产,今年被认为正式进入大规模商业化早期阶段 [2] - Groq订单有望帮助三星晶圆代工在推理AI芯片市场建立立足点 [2] - 韩国推理AI芯片初创公司HyperAccel的处理器也全部由三星晶圆代工采用4纳米制程生产,凸显三星在该细分市场的布局 [2] 英伟达与Groq的合作及未来产品 - Groq于去年12月以约200亿美元被英伟达“间接收购”,英伟达表示将通过非独家技术许可协议展开合作 [1] - 业界普遍认为,此举意在将英伟达生态系统延伸至推理领域,以补充其在AI训练芯片市场的主导地位 [1] - 英伟达预计将在GTC 2026上发布一款基于Groq设计、专为推理优化的芯片 [1] - 该芯片可能采用SRAM而非传统AI芯片普遍使用的HBM,这一架构选择有望显著降低推理延迟与功耗 [1] 特斯拉订单扰动对三星2纳米产线的影响 - 特斯拉推迟多项目晶圆生产计划,导致韩国AI芯片公司DeepX的下一代NPU量产时间表被迫延后约六个月 [1][3] - DeepX原定于今年4月启动其第二代NPU芯片DX-M2的MPW生产,目前已推迟约六个月 [3] - DX-M2是首款专为三星2纳米制程设计的外部客户芯片,而特斯拉同样正在使用该制程生产其AI6芯片 [3] - 特斯拉推迟MPW的具体原因尚未披露,可能与其自动驾驶汽车、人形机器人的生产时间表调整以及超级计算机投资计划变动有关 [3] 特斯拉潜在扩产计划与三星的产能挑战 - 特斯拉近期已派遣一名采购高管赴三星电子,就扩大其2纳米AI6芯片产量展开磋商 [4] - 原有合同约定的产量为每月1.6万片晶圆,若新协议达成,月产量或将提升至约4万片,增幅超一倍 [4] - 这一潜在扩产计划表明,特斯拉对三星2纳米制程的长期依赖程度可能显著加深 [5] - 三星晶圆代工的2纳米产能将面临更为紧张的排期压力,如何在特斯拉、DeepX等多个客户之间协调产能分配,将成为三星近期面临的关键运营挑战 [5]
新一代AI推理芯片
2026-03-06 10:02
电话会议纪要关键要点总结 **涉及的行业与公司** * 行业:AI芯片、半导体、数据中心基础设施 * 公司:英伟达、Grok、谷歌、AMD、英特尔、台积电 一、 AI芯片架构趋势与竞争格局 核心观点:GPU与LPU从替代转向互补协同 * GPU擅长Prefill阶段的大规模并行预处理,LPU在Decode阶段的连续token生成具备低延迟优势,二者协同可显著改善P95/P99尾部延迟[1] * 更优组合是GPU+LPU的互补协作,而非替代关系[2][3] * 英伟达可能推出包含64集群LPU组合并搭配GPU的打包式机架级方案,以整体解决方案交付[2][3] 各类处理单元的定位与差异 * **GPU**:以英伟达H100为代表,核心仍是以大硅片、高算力承担AI训练与推理,依赖集群规模效应和强并行计算能力[2];CUDA与Tensor相关的软件生态成熟,普适性与兼容性强[2] * **LPU**:定位为面向大语言模型的语言处理单元,聚焦语言文本相关处理,核心优势在于低延迟[1][4];单独部署时效率或边际效益与成本表现并不突出[2] * **TPU**:以谷歌等云厂商自研为代表,深度绑定自身软件栈,在自家云环境内效果最好,但跨平台通用性与适配成本较高[2] * **NPU**:更适配强调场景化、实时性与低功耗的任务,如视频会议中的背景模糊、语音降噪等[13] LPU无法取代GPU核心组件 * LPU不具备取代Tensor Core的条件与必要性,两者分工不同、面向负载不同,属于互补关系[4] * LPU并不承担并行计算、图形渲染等通用负载,无法替代Tensor Core在AI训练推理(覆盖FP16到FP64等多精度计算)、并行计算与通用生态中的作用[1][4] * 在万亿级参数大模型训练、万卡集群等场景,仍需要依赖GPU与Tensor Core提供的计算密度与生态支撑[5] 二、 技术实现与核心支撑 3D堆叠封装是LPU实现低延迟的关键 * LPU通过片上SRAM/DRAM与计算核心垂直堆叠,缩短访问链路,实现极低访问延迟,系推理提速关键[1][7] * 3D封装的本质是将原本平面排列的存储单元走向立体堆叠,以应对制程进入纳米甚至埃米阶段后,摩尔定律边际效应下降、晶体管密度扩展受限以及漏电等约束[7] * 该技术并非新生事物,在存储领域(如固态存储)和计算侧(英特尔至强系列)已有多年应用和落地[7] 3D堆叠的容量特点与价值 * LPU集成的DRAM容量并不大,目前公开信息口径为"几百兆",远低于HBM那种可扩展到TB级别的容量上限[8] * 其优势不在于总容量,而在于与主芯片封装在一起后具备极低的访问延迟,从而带来更高的系统效率[8] * 3D堆叠的核心价值在于,在芯片占用的平面面积不变的情况下,通过垂直方向的堆叠显著提升可集成的晶体管数量或存储单元数量,从而实现容量与规模的扩展[8] 异构集成成为先进制程瓶颈下的必然选择 * 在2nm等节点良率受限背景下,通过Chiplet将不同制程的CPU、GPU、NPU集成,可有效降低TCO并提升系统能效[1] * Chiplet与异构集成允许不同模块采用不同制程组合,例如关键计算单元采用更先进制程,总线等采用成熟制程(如7nm),以降低成本并提升良率[8][9] 三、 应用场景与性能表现 LPU与GPU在推理流程中的具体分工 * **Prefill阶段(GPU负责)**:将输入内容拆分为token单元并进行并行处理,完成后生成矩阵并输出初始推理状态[6][11] * **Decode阶段(LPU负责)**:接收GPU输出的初始状态,通过静态调度进行串行token生成,对前序上下文依赖更强[6][12];主要用于该阶段提速并降低卡顿感,重点改善P95、P99等尾部延迟指标[4] * 整体分工原则是让不同核心承担其最擅长的任务:低延迟诉求更适合由具备片上内存结构优势的LPU承接[12] LPU适合推理而非训练的原因 * **存储限制**:LPU采用片上SRAM,容量仅为"几百兆"量级,而GPU的HBM可达TB量级,面对数百B参数规模的训练负载难以支撑[14] * **算力与架构**:LPU设计初衷面向端到端低延迟与更确定性的任务负载,而非大规模并行训练[14] * **精度要求**:GPU覆盖从半精到全精等多种精度,而LPU精度相对更低,主要为Llama推理优化,难以满足训练对精度体系的要求[14] * **软件生态**:GPU的CUDA与Tensor生态成熟,LPU单独做训练缺乏成熟的优化与适配基础[14] 多模态推理芯片现状 * 目前尚未看到明确"某一款芯片在多模态推理上显著更强"的确定结论,多模态能力的提升更多集中在模型与算法优化路径[19] * 多模态与LPU并非同一路径,但未来多模态算力也可能走向"通用芯片+专用芯片拆解协同"的形态[19][20] 四、 基础设施挑战与演进 高功耗驱动散热与供电变革 * 单芯片功耗逼近2000W,将倒逼数据中心从风冷转向冷板式或全浸没液冷[2][16] * 传统风冷可能难以覆盖该功耗密度,在更高热密度下,可能需要全浸没式液冷等方式[16] * 服务器供电体系需要升级以匹配分区级动态功耗调度,原有12V、18V供电方案在发热与线路损耗等约束下可能难以适配[2][16] 软硬件协同与调度成为关键挑战 * 随着芯片异构化程度提升,单芯片内部划分为多个独立计算分区,功耗调度算法本身会成为新增的系统挑战[16] * 必须打通软件生态,通过软件层实现对多颗高功耗芯片的高效调度与协同执行,生态与调度能力将直接影响整体系统可用性与效率[16][18] * LPU与GPU的融合协同在工程实现上存在较大难度,调度机制与系统工程能力可能构成厂商当前的主要攻关方向[17] 五、 成本与经济性优化 降低推理成本的策略 * **专用算力替代部分通用算力**:通过异构方式实现更细颗粒度的分工协作,使每颗芯片更聚焦"重要的事"并尽可能跑满,从硬件侧提高利用率与效率[18] * **存储侧成本优化**:通过数据分层,将PB级数据按冷热属性划分,并据此配置不同存储介质以降低总体成本[18] * **评估核心是TCO**:数据中心对3D技术等封装形式的接受度本质上取决于其对TCO改善的贡献[10];能效提升带来的功耗下降即便只有"单路降低50W"这样的量级,在规模放大后对总体成本影响也会非常显著[10] 专用芯片兴起的逻辑 * 专用芯片本质是"针对特定负载做优化"的算力形态,近几年因大语言模型热度提升,专用算力需求被显著放大[17] * 相较于通用GPU为兼顾多场景而存在的冗余设计,专用芯片有机会提升特定任务的算力利用率,从而减少在低利用率状态下的算力与功耗浪费[17]
云天励飞:正推进下一代高性能NPU研发,将更适合AI推理应用
中国基金报· 2026-02-22 14:54
公司技术定位与研发进展 - 公司长期专注于AI推理芯片的研发设计及商业化,是全球第一批提出NPU驱动的AI推理芯片概念并商业化落地的公司 [2] - 公司已完成第四代NPU的研发,目前正在推进下一代高性能NPU的研发,将更适合AI推理应用 [2] - 公司持续研发AI推理芯片,主要在研产品包括DeepVerse及DeepXBot [3] 核心产品与解决方案 - 公司产品战略以自研芯片及算法赋能的全栈式解决方案为核心,满足端边云推理的需求 [3] - Deep Edge10芯片系列可支持包括Transformer模型、BEV模型、CV大模型、LLM大模型等各类不同架构的主流模型 [2] - 在终端,公司计划加强与智能设备制造商的合作,将AI推理芯片应用到其产品中 [3] - 在边端,公司以自研芯片、模组及服务器、IP授权等产品形式,面向机器人、无人车、无人机、智慧交通等场景提供高能效、低功率和高实时性要求的算力服务 [3] - 在云端,公司将基于自身IFMind大模型及AI推理芯片等产品,落地大规模异构高性能算力集群 [3] 商业化应用与市场拓展 - Deep Edge10芯片系列已在机器人、边缘网关、服务器等领域实现商业化应用,并为深空探测实验室的自主可控星载计算提供支撑 [2] - 公司未来将持续利用IFMind大模型推理能力,将消费电子产品与AI耳机、AI手表等可穿戴设备作为AI赋能产品 [2] - 公司计划拓展海外市场,开发多语言版本产品及服务 [2] 消费级业务战略 - 公司消费级场景将采取多维增长战略,包括推进“噜咔博士”品牌IP化,搭建全渠道营销体系并强化用户共创与品牌传播 [2] - 以大模型等核心技术赋能AI眼镜等消费电子产品,推出智能设备新品类,探索“硬件+订阅内容/服务”模式 [2] - 深化技术迭代与成本优化以构建竞争壁垒 [2] 客户价值主张 - 公司产品及服务将帮助企业客户提升模型训练及算力利用效率,为AI研发提供高效、稳定和安全的运行环境 [3] - 公司在边端业务不断寻求在使用量级上持续突破 [3]
宁波百亿“芯”巨头抢滩港股 “中国边缘AI芯片第一股”来了
每日商报· 2026-01-28 06:18
公司上市与市场地位 - 爱芯元智半导体股份有限公司已通过港交所聆讯,计划在农历春节后登陆港股,有望成为“中国边缘AI芯片第一股” [1] - 公司是全球第一大中高端视觉端侧AI推理芯片提供商,按2024年出货量计算,在算力不低于1TOPS的该领域位居第一 [1][2] - 公司是中国第二大国产智能驾驶SoC供应商,以及国内第三大边缘AI推理芯片供应商 [1][2] 业务与产品数据 - 截至2025年底,公司智能汽车芯片累计出货量已近100万片,同比增长近90% [1] - 截至2024年,公司智能汽车SoC累计出货逾51.88万台,AI推理SoC出货量达930万颗 [2] - 公司已自主开发并商业化五代SoC产品,累计交付超过1.65亿颗芯片 [1] - 公司已推出三款智能汽车SoC(M55H、M57和M76H),其中M55H已实现超十万出货量,M57获得6项设计订单,M76H获得3家Tier1定点 [4] 财务表现 - 公司2022年至2024年收入分别为0.5亿元、2.3亿元和4.73亿元,年复合增长率达206.8% [3] - 2025年1月至9月,公司实现收入2.69亿元,去年同期为2.54亿元 [3] - 公司2022年至2024年及2025年前九个月净利润分别为-6.12亿元、-7.43亿元、-9.04亿元和-8.56亿元,亏损呈扩大趋势 [3] - 在非国际财务报告准则下,同期经调整后的净利润分别为-4.44亿元、-5.42亿元、-6.28亿元和-4.62亿元,累计亏损额为20.76亿元 [3] 研发投入与行业前景 - 公司2022年至2024年及2025年前九个月的研发投入分别为4.46亿元、5.15亿元、5.89亿元和4.14亿元,持续保持高水平 [3] - 由于研发投入较大,公司预计2025年将继续出现亏损 [3] - 2024年全球AI推理芯片市场规模约为6067亿元,其中边缘与端侧的份额占比超过50% [4] - 公司汽车业务收入占比从2022年的0.1%上升至目前的6.4% [4] 股东背景与估值 - 公司从2019年成立至2025年,估值已破百亿元 [2] - IPO前,韦豪创芯和启明创投是两大持股超10%的机构投资方 [2] - 美团旗下公司合计持股约5.14%,腾讯投资持股2.98%,豪威集团创始人虞仁荣持股1.12% [2] - 公司投资者还包括众多知名风险投资机构及多地地方国资 [2]
又一国产AI芯片IPO来了!芯片首富虞仁荣参投,估值百亿
搜狐财经· 2026-01-26 13:01
公司概况与市场地位 - 公司为浙江宁波AI芯片独角兽企业爱芯元智,成立于2019年5月,由前紫光展锐CTO仇肖莘创办,专注于为边缘计算与终端设备提供AI推理系统芯片(SoC)[4] - 截至2025年9月30日,公司已独立开发五代SoC并实现商业化,涵盖数十种类型,累计交付SoC超过1.65亿颗[4][30] - 根据灼识咨询数据,按2024年出货量计,公司是全球第一大中高端视觉端侧AI推理芯片提供商(市占率24.1%),全球第五大视觉端侧AI推理芯片提供商(市占率6.8%),中国第二大国产智能驾驶SoC供应商(售出超过51.8万颗),中国第三大边缘AI推理芯片供应商(市占率12.2%)[5] - 2024年全球视觉端侧AI推理芯片出货量前五分别为:爱芯元智、星宸科技、海思半导体、富瀚微、联咏科技[6] - 2024年中国边缘AI芯片出货量前五分别为:海思半导体、算能、爱芯元智、鲲云科技、寒武纪[7] - 公司股东包括美团旗下北京酷讯科技(持股4.18%)和深圳龙珠(持股0.96%)、腾讯投资(持股2.98%)、联想之星(持股1.84%)、豪威集团创始人虞仁荣(持股1.12%)以及重庆政府旗下基金等[7][47] - 2025年5月完成C轮融资后,公司投后估值达到106亿元人民币[7] 财务表现 - 收入快速增长:2022年、2023年、2024年、2025年1-9月收入分别为0.50亿元、2.30亿元、4.73亿元、2.69亿元人民币[7] - 净利润持续为负:同期净利润分别为-6.12亿元、-7.43亿元、-9.04亿元、-8.56亿元人民币[7] - 经调整净利润:同期分别为-4.44亿元、-5.42亿元、-6.28亿元、-4.62亿元人民币,合计为-20.76亿元[10] - 毛利率情况:同期整体毛利率分别为25.9%、25.7%、21.0%、21.2%[13] - 分产品毛利率(2025年1-9月):终端计算产品17.2%,边缘AI推理产品43.3%,智能汽车产品49.2%[14] - 现金流:经营活动现金流持续为负,2022年至2025年1-9月分别为-4.47亿元、-4.60亿元、-5.98亿元、-5.49亿元人民币,主要依靠融资活动现金流入维持运营[16] - 财务状况:截至2025年9月30日,公司总资产30.29亿元,总负债75.46亿元,负债净额45.18亿元,处于净负债状态[15] - 待履行订单:截至2025年9月6日,待履行订单总额约为9580万元人民币,预计在2个月左右交付[11] 产品与业务构成 - 产品线分为三大类:终端计算产品(视觉感知SoC等)、智能汽车产品(ADAS SoC等)、边缘AI推理产品[31] - 收入高度依赖终端计算产品:2022年至2025年9月,该业务收入占比分别为89.0%、90.6%、94.5%、87.2%[28] - 智能汽车与边缘AI产品增长迅猛:2025年1-9月,智能汽车产品销售额较2024年同期增长约251.4%,边缘AI推理产品销售额增长约272.7%[28] - 出货量与平均售价:总出货量从2022年的92.8万颗增长至2024年的786.06万颗[32] - 2025年1-9月终端计算产品平均售价为6.04元人民币,智能汽车产品为63.30元人民币,边缘AI推理产品为176.43元人民币[33] - 核心芯片系列:包括AX630A、AX620A、AX650N、AX620E、AX520C系列(终端计算),以及M55H、M57、M76H、M97系列(智能汽车)和8850系列(边缘AI)等[30][31] - 智能汽车领域进展:M55H SoC是国产智能车载SoC中单系列最快实现量产突破10万颗的芯片,新一代L2 ADAS SoC芯片M57已赢得6项设计订单,M97系列预计2026年第三季度发布[34] 技术与研发 - 核心技术平台:包括爱芯通元(Axera Neutron)混合精度神经网络处理器(NPU)和爱芯智眸(Axera Proton)AI-ISP(全球首款规模商业化AI图像信号处理器),辅以Pulsar2工具链与SDK[34][35][37] - 研发投入巨大:2022年、2023年、2024年、2025年1-9月研发费用分别为4.46亿元、5.15亿元、5.92亿元、4.62亿元人民币[7] - 研发团队:截至2025年9月30日,拥有499名研发人员,占总员工数的79.7%,其中一半以上拥有硕士或以上学位[38][39] - 知识产权:拥有631项专利及专利申请,包括在中国已授权的250项专利(其中225项为发明)及在美国等其他司法管辖区已授权的20项发明专利[38] - 无形资产:截至2025年9月30日,无形资产合计6.06亿元人民币,主要包括IP授权、技术、商标等[16] - 未来招聘重点:计划增强边缘计算部署能力,招聘多模态模型研究员、具身智能机器人芯片开发人员、AI视觉芯片设计师等,以开发新一代高性能、低功耗AI视觉芯片[55] 销售与供应链 - 销售模式:采用直销和分销相结合,收入绝大部分来自中国内地[40] - 2025年1-9月,分销渠道收入占比60.3%,直销占比39.7%[40] - 客户集中度高:2022年至2025年1-9月,前五大客户收入占比分别为91.5%、85.4%、75.2%、75.0%[40] - 2025年1-9月,最大客户(分销商客户A)贡献收入7.53亿元,占比28.0%[41] - 供应商集中度:同期向前五大供应商采购额占比分别为78.1%、43.0%、64.2%、66.4%[44] - 供应链合作:与7家晶圆厂及26家封测厂合作,主要来自台湾、江苏及浙江,行业内有超过150家替代晶圆厂及封测厂[46][47] - 部分客户亦是供应商:客户A、客户C、客户E、客户J同时也是公司的供应商[45] 行业前景与竞争 - 行业规模高速增长:全球AI推理芯片市场规模从2020年的209亿元人民币增至2024年的6067亿元人民币,年复合增长率达132.1%,预计2030年将达到3万亿元人民币,2024-2030年复合增长率为31.0%[53] - 端侧AI推理芯片细分市场增长预期:到2030年,个人设备、智能汽车、信息系统等场景的全球出货量年复合增长率预计分别为54.4%、48.9%、19.7%,中国市场增速更高,预计分别为59.9%、55.3%、22.5%[19] - 视觉推理芯片市场向中高端倾斜:2024年全球中高端视觉端侧AI推理芯片出货量达3480万颗,占总量的26.0%,预计2030年将增至9990万颗,份额扩大至41.3%[24][27] - 行业竞争激烈并快速演进[53]
浙江AI芯片独角兽冲刺港交所,5年干到“全球第一”
36氪· 2026-01-26 09:15
公司概况与市场地位 - 公司成立于2019年5月,由清华大学校友、前紫光展锐CTO仇肖莘博士创办,专注于为边缘计算与终端设备提供AI推理系统芯片(SoC)[2] - 截至2025年9月30日,公司已独立开发并商业化五代SoC,累计交付量超过1.65亿颗[2][30] - 根据灼识咨询数据,按2024年出货量计,公司是全球第一大中高端视觉端侧AI推理芯片提供商,市场份额为24.1%,也是中国第二大国产智能驾驶SoC供应商和中国第三大边缘AI推理芯片供应商,市场份额分别为12.2%[3][4] 财务表现 - 营业收入从2022年的0.50亿元人民币快速增长至2024年的4.73亿元人民币,2022年至2024年的年复合增长率为207%[3][7] - 同期净利润持续为负,2022年、2023年、2024年及2025年1-9月净亏损分别为6.12亿元、7.43亿元、9.04亿元和8.56亿元人民币[7] - 经调整净亏损(非国际财务报告准则计量)同期分别为4.44亿元、5.42亿元、6.28亿元和4.62亿元人民币,合计为20.76亿元人民币[11][12] - 整体毛利率在2022年至2025年1-9月期间介于21.0%至25.9%之间[14] - 截至2025年9月6日,公司待履行订单总额约为9580万元人民币[12] 产品线与技术 - 产品线主要分为三大类:终端计算产品(视觉感知SoC等)、智能汽车产品(ADAS SoC)和边缘AI推理产品[29][31] - 2025年1-9月,智能汽车产品与边缘AI推理产品的销售额较2024年同期分别大幅增长约251.4%及272.7%[29] - 核心技术包括自研的“爱芯通元”混合精度神经网络处理器(NPU)和全球首款规模商业化的“爱芯智眸”AI图像信号处理器(AI-ISP)[34][35] - 截至2025年9月30日,公司拥有631项专利及专利申请,研发人员499名,占总员工数的79.7%[37][38] 市场与行业前景 - 端侧AI推理芯片的多个应用细分市场(如个人设备、智能汽车)预计到2030年将在全球实现高速增长,年复合增长率分别为54.4%和48.9%,中国市场增速预计更高[20] - 全球中高端视觉端侧AI推理芯片出货量预计将从2024年的3480万颗增长至2030年的9990万颗,市场份额从26.0%扩大至41.3%[28] - 全球AI推理芯片市场规模预计将从2024年的6067亿元人民币增长至2030年的3万亿元人民币,2024年至2030年年复合增长率为31.0%[54] 客户与供应链 - 收入高度集中,2022年至2025年1-9月,前五大客户贡献的收入分别占总收入的91.5%、85.4%、75.2%和75.0%[39][40][41][42] - 部分客户(如客户A、C、E、J)同时也是公司的供应商[44] - 2022年至2025年9月底,公司与7家晶圆厂及26家封测厂合作,主要来自中国台湾、江苏及浙江地区[45][46] 股东与资本结构 - 公司股东包括美团(通过北京酷讯科技和深圳龙珠持股)、腾讯投资、联想之星以及豪威集团创始人虞仁荣等知名机构和个人[6][47] - 在2025年5月完成C轮融资后,公司投后估值达到106亿元人民币[6] - 公司与蔚来集团控制的一家公司等共同成立了合营企业重庆创元智航科技有限公司,专注于M97 SoC系列的研发与销售[51]
集齐产业、PE/VC与央企国资!曦望披露近30亿元新融资细节
21世纪经济报道· 2026-01-22 23:05
公司融资与背景 - GPU芯片公司曦望在一年内完成近30亿元人民币融资 投资方包括三一集团旗下华胥基金 范式智能 杭州数据集团 正大机器人 协鑫科技等产业资本 IDG资本 高榕创投 无极资本 中金资本 普华资本 松禾资本 易方达资本 工银投资 心资本等VC/PE机构 以及诚通混改基金等国资背景资本 [1] - 公司前身为商汤大芯片部门 成立于2020年 是国内首家All-in推理的GPU芯片公司 [3] - 团队在今年7月曾披露规模近10亿元人民币的融资 [3] 团队与治理 - 公司联席CEO王勇是前AMD 昆仑芯核心架构师 曾带领百人团队主导曦望两代芯片的研发和量产 [3] - 另一位联席CEO王湛是百度创始团队成员 原集团副总裁 主要负责公司产品化和商业化 [3] - 目前团队规模约300人 主要来自NVIDIA AMD 昆仑芯 商汤等企业 [3] 技术路线与产品战略 - 公司明确聚焦于推理场景 未参与训推一体GPU的参数竞赛 对GPU架构进行原生重构 在调度 缓存 片上SRAM 互联及编译器路径上进行针对性优化 以降低单位Token推理成本 [3] - 选择深耕推理芯片赛道的核心是基于训练与推理场景的本质差异 训练芯片侧重极致算力与高比特精度 推理更需适配多场景的低能耗 高并发与低延迟需求 [4] - 公司的推理专用GPU兼具通用性和极致性价比 旨在为大模型提供更低成本 更低能耗 更高稳定性的推理服务 [4] 产品进展与规划 - 公司已形成完整的推理GPU产品矩阵 S1云边视觉推理芯片已实现量产并出货超2万片 [4] - S2大模型推理GPGPU已量产 完全兼容CUDA生态 性能对标英伟达A100 [4] - 正在研发的新一代产品S3聚焦多模态大模型推理 计划于2026年量产 目标是将推理计算成本降至原有的1/10 [4] 公司愿景与目标 - 团队目标是极致降低大模型推理成本与门槛 让算力变得普惠且可广泛获取 从而释放AGI的全部潜力 [4] - 公司认为若能实现推理成本下降90%并提供更稳定的服务 其竞争将不是“又一个芯片” 而是“重写中国AI产业的损益表” [4] - 本轮融资所得将用于下一代推理GPU研发 规模化量产及生态共建 [3]
分析师质疑英伟达与Groq的交易规避监管,交易细节待披露
格隆汇APP· 2025-12-27 07:13
交易概况 - 英伟达与Groq宣布达成一项价值200亿美元的交易,该交易被描述为一项“非排他许可协议” [1] 交易结构与动机 - 分析师指出,非排他性许可协议近年来被科技巨头广泛使用,部分原因是为了规避监管审查 [1] - Bernstein分析师Stacy Rasgon表示,反垄断风险似乎是主要问题,将交易结构设为非排他许可有助于维持竞争假象 [1] - Cantor分析师表示,此举既是进攻也是防守,有助于英伟达扩大完整系统技术栈,巩固其在AI市场的领导地位 [1] 市场观点与战略意义 - 美银证券称该交易“令人惊讶、昂贵但具有战略意义” [1] - 该交易凸显了英伟达对AI推理芯片未来增长的重视 [1]
英伟达200亿美元“吞掉”Groq,中国对标公司借壳上市,市值飙至229亿
搜狐财经· 2025-12-26 17:23
英伟达与Groq达成重大技术合作协议 - 英伟达与人工智能芯片独角兽Groq达成一项非独家技术授权协议,交易规模达**200亿美元**,这是英伟达迄今为止规模最大的一笔收购/合作 [2] - 协议内容包括授权英伟达使用Groq的推理技术,同时Groq的创始人Jonathan Ross及其核心团队将加入英伟达 [2] - Groq作为一个法律实体将继续作为“独立公司”运营,由首席财务官Simon Edwards担任首席执行官,这种模式被称为“Acqui-hire 2.0”,只进行技术资产转移与人才入职,不收购股权 [4] Groq公司背景与技术实力 - Groq是一家美国AI芯片初创公司,由前谷歌TPU核心设计师Jonathan Ross于2016年创立 [6] - 公司推出的新型AI加速芯片**LPU**专为大语言模型量身定制,具有高速推理性能,其芯片性能表现比常规的GPU和TPU提升**10到100倍**,被认为是极少数能从架构层面威胁GPU统治地位的对手 [5] - 公司备受资本追捧,最新一轮(E轮)融资发生在**2025年9月**,获得**7.5亿美元**投资,投后估值达**69亿美元**,投资方包括Disruptive、贝莱德等知名机构 [6][7] 交易动因与行业背景 - 交易的关键动力在于,英伟达旨在借助Groq优化自身GPU芯片在**AI推理**领域的短板,同时消除一个潜在的竞争对手 [5] - 随着ChatGPT等生成式AI应用爆发,AI产业正从“训练”转向“推理”,**IDC报告显示,2025年全球AI推理芯片市场规模将达训练市场的3倍** [12] - 英伟达虽然在AI芯片训练市场占据**90%** 份额,但在推理领域面临更激烈竞争,整合Groq的LPU技术有助于其强化在AI全栈(训练+推理)的优势 [12] 交易模式与行业趋势 - 此次交易以“非独家技术许可协议”方式进行,能有效规避美国目前严格的反垄断审查,这种“许可+纳才”模式已成为科技巨头获取技术和人才的新范式 [11][12] - 就在**2025年9月**,英伟达曾以类似模式,花费超过**9亿美元**聘请了人工智能硬件初创公司Enfabrica的团队并获得其技术许可 [11] - 除英伟达外,其他科技巨头也在采取类似行动:Meta收购了Rivos,AMD吸纳了Untether AI团队,英特尔据传也在就收购SambaNova进行谈判 [12][13] 中国对标公司与市场动态 - 与Groq有类似业务的中国公司**中昊芯英**,于**2025年12月23日**完成超**21亿元**的要约收购,借壳A股上交所主板上市公司天普股份上市 [5] - **12月25日**,天普股份涨停,收盘市值达**229亿元** [5][17] - 中昊芯英成立于2020年10月,是国内少数掌握TPU训练、推理一体架构核心技术的AI芯片公司,其创始人杨龚轶凡曾是谷歌TPU芯片的核心设计人员 [14][17] - 公司主打产品采用Chiplet技术的芯片集群算力超**200 PFLOPS**(相当于每秒200千万亿次浮点运算) [14]