Workflow
AI推理
icon
搜索文档
星宸科技(301536) - 301536星宸科技投资者关系管理信息20260309
2026-03-09 22:18
2025年业绩概览 - 全年实现营业收入约29.72亿元,同比增长26.28% [4] - 全年实现归属于上市公司股东的净利润约3.08亿元,同比增长20.33% [4] - 全年实现扣非净利润约2.52亿元,同比增长39.20% [4] - 第四季度业绩表现尤为亮眼:营收约8.06亿元,同比增长49.01%,环比增长5.60%;净利润约1.06亿元,同比增长76.91%,环比增长29.10% [4] - 全年整体毛利率约34.16%,第四季度毛利率达36.15%,环比提升2.32个百分点 [4] 业务线表现与市场地位 - 带AI算力的SoC累计出货量已突破5.5亿颗,2025年度出货量超1.2亿颗 [5] - 三大主营业务整体出货量约1.8亿颗 [5] - **智能安防**:营收约19.35亿元,同比增长21.87%,全球市占率预计提升至40%左右 [5] - **智能物联**:营收约6.58亿元,同比增长38.63%,其中智能机器人细分领域出货量突破1000万颗,出货量及营收同比均增长超5倍 [5] - **智能车载**:营收约3.18亿元,同比增长29.66%,前装领域出货量突破百万量级,同比翻倍增长 [5] 2026年产品规划与展望 - 计划发布1款激光雷达芯片及3款12nm芯片,新品均定位中高阶、高毛利领域 [5] - 首款主激光雷达芯片预计2026年Q2上车并实现小规模量产 [6] - 第二款激光雷达芯片聚焦车载补盲等多场景,计划2026年Q4发布 [6] - 自2027年起,车载激光雷达芯片目标出货量有望达千万级别 [6] - 具身智能机器人及边缘计算芯片可支持十几T至百T级可扩展算力配置 [6] - 进阶智驾及智能座舱芯片集成32T算力,已获国际一线OEM定点,计划2027年Q1量产 [6] - 第二代12nm移动影像设备芯片(AI眼镜芯片)采用更低功耗设计,成本进一步优化 [7] 研发投入与未来战略 - 2025年全年研发投入约6.52亿元,同比增长8.23%,研发投入率达21.94% [8] - 业务发展将形成“研发投入→成果转化→效益提升→营收增长”的正向循环 [8] - 外延发展将围绕AI推理大算力、具身智能、智能驾驶等核心赛道,推进产业投资与并购 [8] 投资与生态布局 - 2025年完成4项股权投资及1项并购 [12] - 战略投资AI推理算力芯片设计公司**元川微**,其LPU架构芯片性能可达传统GPU的5-18倍,能效比提升10倍 [9][10] - 2026年全球AI芯片市场规模预计达2800亿美元,其中推理芯片占比52%,规模约1450亿美元 [11] - 未来投资并购将持续聚焦连接、车载、具身智能机器人等与主营业务高度协同的领域 [12] 成本与供应链管理 - 针对存储芯片供应紧张,公司自2025年Q4起已逐步实施成本转移,产品价格动态调整 [13] - 优化产品与客户结构,将资源向高附加值项目集中 [13] - 晶圆及封测等其他代工成本保持相对稳定,未出现明显波动 [14] - 未来新产品将同时提供外挂与内嵌两种存储方式供客户选择,以分散供应风险 [14]
独家丨直指2000 Tokens/s,北大系「流式推理芯片」公司完成数千万元融资
雷峰网· 2026-03-09 08:35
公司融资与背景 - 国内AI推理芯片创业公司寒序科技完成数千万元融资,投资方为启高资本、赛意产业基金,源合资本担任独家财务顾问 [2] - 公司成立于2023年8月,源于北京大学磁学中心,核心团队是国内首个能跑通从物理、材料、器件到异质集成、芯片设计、算法的交叉团队 [3] 产品技术与性能 - 公司专注于超快流式推理芯片,产品定义聚焦于推理速度,核心理念为“唯快不破”,不做GPU,不卷通用训练 [2][3] - 首颗AI推理芯片(SpinPU-E Series)样片测试结果“非常理想”,其关键指标“单位面积带宽”与Groq LPU披露一致,达到100 GB/s/mm²,这是实现2000Tokens/s速度的底气 [2] - 下一代芯片已在流片中,采用“片上MRAM+SRAM”和“确定性流式乘加单元”技术,目标性能指向2000Tokens/s以上,而目前主流对话模型推理速度仅约30-50Tokens/s [2] - 公司的方案被业界认为是最贴近Groq方案的超大带宽流式处理芯片 [3] 行业定位与竞争 - 公司的单位面积带宽指标是当前AI推理芯片竞争中最具辨识度的硬指标之一,被评价为国内少有的、真正沿着Groq方向发展的团队 [2][3] - 业内传闻NVIDIA已以约200亿美元估值级别锁定Groq的推理技术合作,并计划在NVIDIA GTC 2026发布的新一代AI推理系统中采用Groq芯片设计 [3] 公司发展现状 - 公司此前较为低调,过去两年未对外系统披露产品进展,近期开始对外释放信息的重要背景是其关键技术与样片验证已度过最危险阶段 [2][3] - 目前,公司的新一轮融资已在推进中 [3]
ram在AI推理中拓展应用,堆叠方案可助力容量扩充
东方证券· 2026-03-07 15:59
行业投资评级 - 电子行业评级为“看好”(维持) [5] 报告核心观点 - SRAM在AI推理中拓展应用,堆叠方案可助力容量扩充 [2][7][8] - 事件驱动:英伟达将于2026年3月16日举办GTC 2026大会,市场关注其有望结合Groq LPU芯片架构推出新的AI推理芯片方案,进而驱动SRAM拓展应用 [7] - SRAM可实现较高的访问速度,读写速度极快,访问时间仅约10纳秒甚至更低,远超DRAM [7] - SRAM架构在AI推理中拓展应用,头部厂商加速布局。SRAM容量较小但工作速度快,在AI推理过程中,对于小参数模型的模型权重、数据流架构中的中间结果和权重数据等部分容量要求小但访问速度要求高的数据,可作为HBM之外的重要存储层级补充 [7] - 产业进展:2025年12月英伟达斥资200亿美元获得Groq知识产权的非独家授权。Groq LPU采用容量达数百MB的片上SRAM存放模型权重,片上带宽高达80TB/s [7] - 产业进展:Cerebras推出的晶圆级引擎3(WSE-3)芯片拥有多达44GB的片上SRAM存储。2026年2月,OpenAI发布其首款搭载Cerebras Systems芯片的AI模型GPT-5.3-Codex-Spark,并有望在2026~2028年把750MW规模的Cerebras芯片集成到其AI推理计算资源库中 [7] - 3D堆叠方案助力SRAM实现容量扩充,AMD等头部厂商已有布局。该方案可通过垂直堆叠存储单元的方法来提升密度,规避传统SRAM容量受面积密度限制的问题 [7] - 产业进展:2021年AMD公布3D垂直缓存(3D V-Cache)技术,可将额外的7nm SRAM缓存垂直堆叠在Ryzen计算小芯片顶部 [7] - 产业进展:2024年7月,富士通介绍旗下MONAKA处理器采用3D SRAM技术,计划2027年出货。该处理器采用3D芯粒架构,所有末级缓存位于5nm SRAM芯片(底层芯片)中 [7][17] 投资建议与相关标的 - 投资建议:SRAM在AI推理中拓展应用,堆叠方案助力容量扩充 [3][8] - 相关标的覆盖多个产业链环节 [3][8]: - 布局定制化存储方案的国内头部存储芯片设计厂商:兆易创新、北京君正等 - 布局基于SRAM的数字存算一体方案:恒烁股份 - 布局先进封装:长电科技、通富微电等 - 布局混合键合设备:拓荆科技、华海清科、百傲化学、芯源微等 - 有望受益于英伟达新芯片方案的头部PCB厂商:深南电路、沪电股份、胜宏科技等 - PCB上游企业:生益科技、南亚新材、宏和科技、菲利华、中材科技等
江波龙(301308) - 2026年3月4日投资者关系活动记录表
2026-03-06 18:02
核心技术能力与产品布局 - 公司已推出应用于UFS、eMMC、SD卡、高端USB等领域的多款自研主控芯片 [3] - 主控芯片采用领先的头部Foundry工艺、自研核心IP与固件算法,使产品具备性能与功耗优势 [3] - 全球仅有少数企业具备芯片层面开发UFS4.1产品的能力,公司自研主控的UFS4.1产品在制程、读写速度及稳定性上优于市场可比产品 [3] - 基于mSSD(Wafer级系统级封装SSD)产品,公司已构建丰富的知识产权布局,并利用自主高端封测实力实现商业落地 [3] 市场合作与供应链保障 - 公司已与全球主要存储晶圆原厂建立深层次合作,并签有长期供货协议(LTA)或商业合作备忘录(MOU) [3] - 依托主控芯片、固件算法、封装测试全栈能力及上下游深度协同,公司在晶圆供应结构性偏紧环境下构建了差异化供应保障能力 [4] - 搭载公司自研主控芯片的UFS4.1产品正处于批量出货前夕,并与多家晶圆原厂及头部智能终端设备厂商有深度合作 [3] 市场前景与行业周期判断 - mSSD作为传统SSD的升级形态,具有轻薄化、紧凑化、低功耗、空间占用小及综合成本优势,市场前景广阔 [3] - AI推理因键值缓存(KV Cache)与检索增强生成(RAG)技术的应用,对存储容量需求显著扩大 [4] - AI基础设施快速扩张与HDD供应短缺共同推动存储需求爆发式增长 [4] - 受产能建设周期滞后影响,存储原厂资本开支回升对短期供应的增量贡献较为有限 [4] 公司运营策略 - 公司结合存储市场行业情况、产品特点及客户结构,制定并执行适合自身的生产经营节奏与备货采购策略 [4]
飙涨超15%!AI ASIC与SSD需求狂飙!迈威尔科技尽享“AI推理红利” 营业利润猛增72%!华尔街纷纷看好!
美股IPO· 2026-03-06 08:51
迈威尔科技(MRVL)业绩表现 - 公司2026财年第四季度营收创历史新高,达22.2亿美元,同比增长超20%,略高于华尔街预期的22.1亿美元 [3] - 第四财季调整后每股收益(Non-GAAP EPS)为0.80美元,高于华尔街预期的0.79美元及上年同期的0.60美元 [3] - GAAP准则下营业利润达4.044亿美元,同比大幅增长72%;归属于普通股股东的净利润达3.961亿美元,同比大幅增长约97.9% [3] - 公司给出的2027财年第一季度营收指引中值约为24亿美元,显著高于分析师平均预期的22.7亿美元,Non-GAAP每股收益和毛利率指引中值也均高于预期 [4][5] - 公布财报后,公司股价在美股盘后一度暴涨超15% [4] - 华尔街分析师共识评级为“强力买入”,未来12个月平均目标股价为118美元,意味着潜在上行空间高达56% [7] 数据中心与AI ASIC业务驱动 - 数据中心业务是公司增长的核心引擎,第四财季贡献营收约16.5亿美元,占总营收比例约74%,同比增长约21%,环比增长9% [4] - 数据中心业务的订单量正以“创纪录的速度”增长,公司预计本财年营收将实现同比增长层面的“进一步加速” [4][14] - 公司业绩主要受益于数据中心基础设施半导体需求的全面爆发,尤其是定制AI ASIC、高性能通信与控制芯片、数据中心级别eSSD存储主控制芯片 [8] - 公司聚焦于加速更新迭代定制化AI ASIC芯片技术、网络处理器(DPUs/NPUs)、SSD主控制器与高带宽互连产品,这些产品需求随全球AI算力需求指数级扩张而迅速增长 [8] - 公司是亚马逊AWS Trainium系列AI ASIC的最大规模合作伙伴之一,该算力集群被定位为面向生成式AI训练与推理的专用加速器 [1][9] AI ASIC行业趋势与竞争格局 - 随着AI推理时代全面来袭,性价比更高的AI ASIC算力系统正对英伟达近乎90%市场份额的AI芯片垄断地位发起强有力冲击 [3] - 博通(AVGO)作为AI ASIC超级霸主,其最新财报显示总营收增至193亿美元,同比增长29%,其中与AI密切相关的营收翻番至84亿美元,半导体解决方案营收达125.15亿美元,同比大幅增长52% [5] - 博通CEO预计明年围绕AI ASIC的“AI芯片”相关营收将突破1000亿美元,包括AI ASIC算力集群和高性能以太网交换机芯片营收 [6] - 谷歌、亚马逊、微软等云计算巨头正发起“AI算力成本革命”以加速推进AI ASIC渗透规模,例如谷歌Gemini 2.0的训练和推理100%运行在自研TPU上 [9][10] - 推理时代的核心竞争指标转向每token成本、功耗、内存带宽利用率、互连效率及总拥有成本,面向特定工作负载定制的ASIC在这些指标上比通用GPU更具性价比优势 [6][15] - 未来AI数据中心将进入异构算力时代:前沿训练和广义云算力可能继续由GPU主导,而超大规模内部推理、Agent工作流和固定高频负载则加速转向ASIC [15] 存储芯片与SSD控制器业务 - 公司业绩同时受益于高性能存储控制器/SSD主控芯片的强劲需求,这些产品是AI大模型训练/推理体系中“隐性算力”的核心驱动力 [11] - SSD存储芯片完美卡位AI浪潮,同时受益于训练扩张与推理扩张两条主线,是跨平台、跨架构的“通用收费站” [12] - 在人工智能数据中心需求推动下,存储价格预计将飙升:法国巴黎银行预测2026年一季度DRAM合约价环比大涨90%,NAND有望大幅上涨55% [12] - TrendForce将2026年第一季度常规DRAM合约价预期上修至环比增长90%至95%,NAND Flash合约价格预期上修至环比增长55%至60%,并指出企业级SSD(eSSD)需求激增推动其价格有望大涨53%至58% [13]
属于AI ASIC的黄金时代来临! 推理狂浪席卷全球 博通(AVGO.US)千亿美元蓝图直插英伟达腹地
智通财经网· 2026-03-05 08:13
博通财报业绩与展望 - 公司2026财年第一季度总营收为193亿美元,同比增长29%,调整后每股收益为2.05美元,均超出分析师预期[5] - 公司预计第二财季总营收约为220亿美元,同比增长约47%,显著高于华尔街分析师平均预测的约205亿美元[7] - 公司宣布了一项规模最高达100亿美元的最新股票回购计划,将持续到年底[2] AI芯片业务表现与前景 - 第一财季与AI密切相关的营收翻番,达到84亿美元,增速远快于公司此前预期[7] - 第一财季半导体解决方案营收高达125.15亿美元,同比增长52%[7] - 公司预计当前季度与AI相关联的芯片业务营收将为107亿美元[5] - 公司首席执行官预计,明年其AI芯片累计营收将突破1000亿美元[3][5] - 公司预计OpenAI将于明年开始大规模出货与其联手打造的AI ASIC算力芯片,算力规模有望超过1吉瓦[7] - 公司计划向Anthropic出货AI ASIC芯片,以在今年实现1吉瓦算力容量,并在明年实现超过3吉瓦算力[7] AI ASIC行业趋势与竞争格局 - 随着AI推理时代到来,性价比更高的AI ASIC算力系统对英伟达在AI芯片市场近90%的垄断地位发起冲击[1] - 经济性与电力约束迫使微软、亚马逊、谷歌及Meta等云计算巨头推AI ASIC技术路线的自研AI芯片,以追求更高性价比与能效比[9][10] - 未来AI数据中心将进入异构算力时代:前沿训练和广义云算力继续由GPU主导,超大规模内部推理、Agent工作流和固定高频负载则加速转向ASIC[11] - 根据Counterpoint Research报告,博通在2027年AI数据中心服务器ASIC设计合作伙伴领域的市场份额将达到60%[14] - Counterpoint预计,到2028年,AI服务器ASIC的出货量将超过1500万颗,超过数据中心AI GPU的整体出货量[14] - 谷歌已公开表示,Gemini 2.0的训练和推理100%运行在TPU上[12] - 亚马逊AWS将其AI ASIC算力集群定位为面向生成式AI训练与推理的专用加速器,Trainium2相比其AI GPU云实例给出约30%–40%更优价格性能[12] - 微软将AI ASIC Maia 200定位为面向云计算推理领域的加速器,声称较其现有最新一代硬件实现30%更强劲的performance per dollar[13] 公司市场表现与华尔街观点 - 财报公布后,公司股价在美股盘后交易中大涨超5%[2] - 华尔街分析师未来12个月目标股价集中于450美元至535美元,公司股价周三收于317.53美元[3][14] - 长期追踪该股的55位华尔街分析师中,96%给予等同于“买入”的最乐观看涨评级,平均目标价约为454美元[14] - 公司当前市值已经突破1.5万亿美元[8] - 华尔街机构对公司的长期看好逻辑主要围绕:AI算力业务爆发式增长、愈发庞大的订单积压、以及基础设施软件业务的稳定性[15]
【行业聚焦】日本材料巨头上调CCL价格 叠加英伟达LPU催化 PCB高景气再确认
新浪财经· 2026-03-03 18:03
PCB行业整体趋势与市场规模 - 在AI强劲需求的拉动下,PCB产业链的涨价行情还在延续 [1][4] - 咨询机构Prismark预计,2024年至2028年全球PCB行业产值将以5.4%的年复合增长率成长,到2028年预计超过900亿美元 [4][7] - 其中,HDI板2027年市场规模有望达到145.8亿美元,2023年至2028年CAGR达6.2%,高于行业平均增速的5.4% [4][7] 上游材料价格变动 - 日本半导体材料巨头Resonac已于3月1日起,上调CCL及粘合胶片价格30% [1][4] - 业界预期,Resonac的提价将传导至MLCC、HDI板、IC载板、高频高速PCB等高端制造环节 [1][4] AI推理芯片(英伟达LPU)带来的行业催化 - 英伟达计划在GTC开发者大会上发布一款整合了Groq“语言处理单元(LPU)”技术的全新AI推理芯片,被称为“世界从未见过”的全新系统 [2][5] - 专为AI推理打造的算力芯片具有横向扩展、高密度互联、超低延迟等架构特性,将对PCB行业带来量价齐升、工艺升级、材料革新、集中度提升的深远影响 [1][2][6] - 市场普遍认为,AI推理的市场规模将是AI训练的3倍至5倍,英伟达CEO黄仁勋表示AI推理计算将增长超过10亿倍 [3][7] - LPU类的AI ASIC推理芯片,将为PCB行业打开全新的市场规模空间 [1][3][7] LPU对PCB技术规格与价值量的提升 - 传统的8卡GPU所用PCB为20层至24层,英伟达Rubin所用PCB为40层至78层,市场预期LPU将采用52层PCB板 [2][6] - 高密度互连要求使得PCB基材向M9级升级,对电子布的消耗量成倍数增长 [2][6] - 相较于Rubin单柜采用8颗至32颗GPU芯片,LPU单柜采用256颗芯片,单柜内PCB用量面积提升50%至9.2平方米、电子布用量接近翻倍达到1037平方米 [3][6] - 单颗LPU芯片所用PCB的价值量将达到3000元,是传统方案的5倍至10倍 [3][6] - 单柜的PCB总价值量(包括计算板、背板)将达到45万元至70万元 [3][6] - 虽然LPU单柜PCB价值量低于Rubin的120万元至180万元,但因其巨大的市场规模预期,对行业总需求的拉动效应显著 [3][7]
英伟达放弃GPU上LPU:新推理芯片被曝Groq即买即用,OpenAI第一个吃螃蟹
36氪· 2026-03-02 15:26
英伟达新产品战略 - 公司计划在3月的GTC大会上发布一套全新的、专为AI推理优化的计算系统,其核心是一颗新芯片 [1] - 该芯片的首位大客户是OpenAI,该公司刚刚完成了1100亿美元的巨额融资 [1] - 这是公司第一次在核心AI算力产品线上大规模引入外部架构设计,其底层架构来自原Groq团队打造的LPU(语言处理单元)[3] - 此次引入外部架构源于去年一笔价值约200亿美元的交易,公司完成了对Groq核心技术与团队的收购式招聘 [3][10] - 公司采用收购成熟方案并快速部署的策略,旨在追求极致的投资回报率 [3] 新产品技术细节与优势 - 新产品是基于LPU架构的推理计算系统,而非传统的GPU [4] - LPU架构采用高密度片上SRAM,将数据紧贴算力单元,极大缩短数据路径,从架构层面降低延迟与能耗,更适配低延迟推理场景 [8] - 在特定推理场景下,LPU的理论最高速度可比GPU快100倍 [8] - 在AI推理的decode阶段,系统瓶颈更多来自数据移动而非算力本身,GPU因需要频繁在计算核心与外部HBM间搬运数据而不够高效,LPU则通过架构调整更贴合推理负载 [6][7][20] 市场背景与竞争格局 - AI算力结构正从“训练优先”向“推理优先”转移,推理成为规模更大、频率更高的长期负载,成本成为核心变量 [10][12][13] - 头部AI客户开始积极寻找更高效率的推理替代方案,以分散风险并降低成本 [6][16] - OpenAI已与Cerebras签署了价值数十亿美元的计算合作协议,后者芯片在特定场景下宣称快于英伟达GPU [13] - Anthropic更多依赖AWS与Google Cloud的自研芯片,Meta与AMD达成大规模芯片订单合作以优化推理并减少对英伟达的依赖 [13] - 在中国市场,模型公司开始转向本土算力方案,例如DeepSeek将V4的早期访问权限授予华为并在昇腾平台完成迁移 [14] - 据Bernstein Research预测,到2026年,华为在中国AI芯片市场份额可能达到50%,而英伟达份额或降至个位数 [15] - 谷歌、亚马逊等云厂商也在推动自研芯片在高频推理场景的落地 [15] - 这是AI浪潮以来,英伟达第一次在核心硬件层面面临架构挑战 [21] 客户合作与需求印证 - 在OpenAI最新的融资文件中,计划扩大与英伟达的长期合作,包括使用3GW的专用推理算力,以及在Vera Rubin系统上提供2GW的训练算力 [6] - 即将发布的LPU推理芯片极有可能对应OpenAI融资文件中提到的“专用推理算力”部分 [6] 公司其他产品动态 - 除了LPU推理芯片,公司还预告将在今年GTC大会上发布“世界前所未见”的新系列产品 [22] - 外界猜测新产品可能包括Rubin系列新一代GPU或Feynman系列全新架构芯片 [23]
英伟达放弃GPU上LPU:新推理芯片被曝Groq即买即用,OpenAI第一个吃螃蟹
量子位· 2026-03-02 12:53
英伟达即将发布基于LPU架构的新推理芯片 - 公司计划在3月GTC大会上发布一套全新的AI推理系统,其核心是一颗专为推理优化的新芯片 [1] - 该芯片的首位大客户是OpenAI,后者在最新融资文件中计划扩大与英伟达的长期合作,包括使用3GW的专用推理算力以及在Vera Rubin系统上提供2GW的训练算力 [2][13] - 这款芯片的底层架构并非英伟达自研,而是由原Groq团队打造的LPU(语言处理单元)架构,这将是公司第一次在核心AI算力产品线上大规模引入外部架构设计 [5][6][15] 新芯片推出的战略背景与架构优势 - 此次行动基于去年一笔约200亿美元的交易,公司完成了对Groq核心技术与团队的“收购式招聘”,新芯片是这笔投资的首次落地 [7][8] - 选择引入成熟的LPU架构而非完全自研,是为了快速响应市场需求,体现了公司追求极致投资回报率的策略 [9][10][15] - 在推理场景下,传统GPU架构因数据在计算核心与外部HBM间频繁搬运而产生瓶颈,而LPU采用高密度片上SRAM,将数据贴近算力,极大缩短数据路径,理论最高速度可比GPU快100倍,更适配低延迟推理 [18][20][22] AI算力需求结构从训练向推理转移 - 随着Agent应用普及,AI算力结构正从“训练优先”向“推理优先”转移,推理成为规模更大、频率更高的长期负载 [24][25] - 训练追求大规模并行和总体吞吐量,而推理(尤其是decode阶段)追求“单token速度”和稳定低延迟响应,系统瓶颈更多来自数据移动而非算力本身 [20][43][45] - 公司正式将LPU纳入核心产品线,不仅是一款新芯片的发布,更是对算力重心转移的回应 [26][27] 市场竞争加剧与客户分散风险 - OpenAI等头部客户已在积极寻找更高效率的推理替代方案,例如OpenAI与Cerebras签署了数十亿美元的计算合作协议 [16][31] - 其他主要AI公司也在减少对英伟达方案的依赖:Anthropic更多依赖AWS与谷歌云的自研芯片;Meta与AMD达成大规模芯片订单合作以优化推理任务 [33][34] - 在国产方面,模型公司开始转向本土算力方案,例如DeepSeek将V4的早期访问权限独家授予华为并在昇腾平台完成迁移 [36][37] - 根据Bernstein Research预测,到2026年,华为在中国AI芯片市场份额可能达到50%,而英伟达份额或降至个位数 [39] 行业格局变化与英伟达的应对 - 推理市场正在重塑算力格局,成为主战场,客户开始分散风险 [27][42] - 竞争对手在强化推理专用架构布局:谷歌早已布局TPU;亚马逊在OpenAI融资计划中拿下计算生态合作权,将重点启用自研Trainium芯片;国内字节、阿里、百度等公司也开始亲自下场制造芯片 [40][41] - 尽管英伟达仍占据全球GPU市场超过90%,Hopper、Blackwell及即将登场的Rubin系列仍是训练主力,但面对推理需求暴涨和架构挑战,公司必须正面回应 [47][48] - 除了LPU芯片,公司还官宣将在今年GTC大会上发布“世界前所未见”的新系列产品,外界猜测可能包括Rubin系列新一代GPU或Feynman系列全新架构芯片 [49][50]
英伟达新推LPU,重视铜缆、液冷机遇
华泰证券· 2026-03-02 10:25
行业投资评级 - 通信行业评级为“增持” [8] - 通信设备制造子行业评级为“增持” [8] 报告核心观点 - 英伟达斥资**200亿美元**收购Groq并计划整合其LPU技术,表明其对AI推理市场及LPU产品的重视,未来资源可能倾斜 [2][11][27] - LPU作为语言处理单元,在实时token生成中可实现极低延迟和高能效,其硬件形态趋向采用机柜形式部署 [1][2][20] - 围绕LPU的算力配套产业链将受益,尤其看好机柜形式带来的**铜缆连接**和**液冷散热**需求上行 [1][2][11] - 2026年通信行业投资主线为“一主两副”:主线是AI算力链,副线一是核心资产(运营商),副线二是新质生产力(商业航天、低空经济) [3] 本周市场表现 - 上周通信(申万)指数上涨**4.76%**,表现优于上证综指(**1.98%**)和深证成指(**2.80%**) [1][11][47] - 通信行业在周度各行业涨跌榜中表现突出 [7] 周专题:英伟达LPU与产业链机遇 - **Groq与LPU技术**:Groq核心产品LPU是基于SRAM的确定性架构,片上带宽高达**80TB/s**,专攻实时token生成,能效远超GPU [13] - **整合计划**:英伟达计划将Groq的LPU技术作为“加速器”嵌入其整体架构,重点解决AI推理阶段的低延迟解码瓶颈 [12] - **硬件形态与互联**:LPU采用机柜部署,单机柜标准配置为8个节点(共64个LPU),最大可扩展至**145个机柜**(超**10,000芯片**) [20] - **铜连接需求**:为追求极致性价比,LPU机柜在短距Scale-up互联层面预计沿用铜连接技术(如DAC/AEC) [22][27] - **液冷散热需求**:LPU功耗较高,单芯片平均能耗**185W**,单卡能耗达**375W**,完整机柜功率达数百kW,液冷有望成为标配散热技术 [27][28] - **受益产业链**:报告梳理了LPU相关产业链公司,包括铜连接(如沃尔核材)、液冷(如英维克)及PCB板块 [28] 行业重点公司及动态 - **重点推荐公司**:报告给出了九家重点公司的投资评级与目标价,包括中国电信(目标价**9.11**元)、沃尔核材(目标价**43.21**元)、中国移动(目标价**126.20**元)、新易盛(目标价**476.71**元)、中际旭创(目标价**626.68**元)等 [8][59] - **公司最新观点摘要**: - **中国电信**:9M25归母净利润**308亿元**,同比增长**5.0%**,天翼云加速向智能云转型,AIDC业务增长动能加强 [60] - **沃尔核材**:9M25收入**60.8亿元**,同比增**26%**,受益于**224G高速通信线**量产及新能源充电枪需求提升 [61] - **新易盛**:9M25营收**165亿元**,同比增**222%**,归母净利润**63亿元**,同比增**284%**,主要受800G等高速率产品需求驱动 [63] - **中际旭创**:9M25营收**250.05亿元**,同比增**44%**,归母净利润**71.32亿元**,同比增**90%**,受益于800G/1.6T高端产品放量 [65] - **ARISTA网络**:4Q25营收**24.88亿美元**,同比增**29%**,超预期,并将2026年AI收入指引上调至**32.5亿美元** [65] 其他行业动态 - **5G产业链**:2025年全球移动核心网市场收入同比增长**15%**,其中5G移动核心网首次占据约**50%**份额 [30] - **运营商集采**: - 中国铁塔启动2026年室分天线集采,预估总量超**621万副**,其中主要品类采购量约**327.99万副** [30] - 中国移动集采**1790台**RoCE交换机,最高限价**9.97亿元** [33] - 中国移动集采建筑用380V电力电缆**343.90万米** [34] - **云与AI**: - 亚马逊向OpenAI投资**500亿美元**,双方将联合开发“有状态运行时环境” [36] - OpenAI完成**1100亿美元**新融资,投前估值达**7300亿美元**,投资方包括软银、英伟达、亚马逊 [37] - 2025年下半年,中国企业AI日均Token使用量飙升至**37万亿**,较上半年的**10.2万亿**暴增**263%** [38]