AI推理
搜索文档
智微智能(001339):战略投资元川微,加码边缘及端侧AI推理赛道
国信证券· 2026-03-15 20:21
报告投资评级 - 投资评级:优于大市(维持) [2][4][44] 核心观点与事件 - 智微智能通过全资控股的曜腾投资,战略投资了国内LPU架构先行者杭州元川微科技有限公司,加码边缘及端侧AI推理赛道 [1][3][5] - 元川微是国内首家专注于AI实时推理算力芯片的初创企业,其LPU产品精准满足行业对超低时延、高吞吐算力、极致能效比及高性价比的核心诉求 [4][5] - 基于Token出海、国内大模型快速发展带来的智算需求增长,报告认为智微智能2026年智算业务有望快速增长,且2027年LPU服务器产品有望开始放量,打开第二增长曲线,因此上调了盈利预测 [4][44] LPU技术架构与优势 - LPU是专为推理设计的AI芯片,其核心是张量流处理器(TSP)架构,该架构将功能单元以2D网络方式排列成切片,指令流与数据流垂直交叉运行,实现确定性计算 [4][8][9] - LPU设计遵循四大原则:软件为先(采用静态调度)、可编程流水线架构、确定性的计算和网络、片上存储(以SRAM为主)[18][20] - 与GPU相比,LPU在推理性能上具备显著优势:以Llama 3.3 Instruct 70B测试,Groq LPU的输出速度达306 Token/s,端到端响应时间为2.4秒(输出500个Token),每Token能耗不到GPU的1/4 [4][28] 公司业务分析与盈利预测 - 报告将智微智能业务分为四部分进行预测: - **行业终端业务**(PC、OPS、云终端):预计2025-2027年收入为25.57/24.20/25.83亿元,增速承压 [36][41] - **ICT基础设施业务**(服务器、交换机、网安设备):预计2025-2027年收入为7.73/9.37/18.47亿元,其中2027年因LPU服务器放量预计增长97.2% [37][41] - **工业物联网业务**:预计2025-2027年收入为2.59/3.61/4.83亿元,保持较高增速 [38][41] - **智算业务**:预计2025-2027年收入为5.35/17.25/18.55亿元,2026年受益于算力需求爆发预计增长222.4%,毛利率维持在65%以上 [39][40][41] - **整体财务预测**:上调2025-2027年营收至44.96/58.24/71.62亿元(前值46.93/53.27/59.60亿元),归母净利润至1.99/6.14/7.30亿元(前值2.21/2.69/3.29亿元)[4][41][43] - 受益于高毛利的智算业务占比提升,预计公司整体毛利率将从2025年的18.7%大幅提升至2026年的29.0% [41] - 当前股价对应2025-2027年市盈率(PE)分别为92/30/25倍 [4][44]
GTC大会前瞻:LPU、CPO和存储
信达证券· 2026-03-15 20:11
行业投资评级 - 投资评级:看好 [2] 核心观点 - GTC 2026大会是迈向“大推理”时代的关键节点,算力范式正从大规模训练转向长期、高频、复杂的推理环节,根据OpenRouter数据,2025年以来推理模型流量占比已超过50% [24] - 报告重点前瞻了英伟达GTC大会可能涉及的三大技术方向:LPU(语言处理单元)、CPO(光电共封装)和存储(特别是HBM),认为这些技术的演进将驱动产业链投资机会 [3][4][24][26][29][32] 行情追踪总结 - **申万电子二级指数表现**:年初以来至报告期,电子化学品Ⅱ涨幅最高,达+20.47%,消费电子则下跌-5.22%;本周(报告当周)电子细分行业表现分化,元件(+1.44%)和电子化学品Ⅱ(+1.73%)上涨,半导体(-2.60%)和其他电子Ⅱ(-2.21%)下跌 [3][10] - **北美科技股表现**:年初以来,美光科技(+49.30%)、英特尔(+24.04%)、应用光电(+177.71%)涨幅居前;本周,美光科技(+15.08%)和英特尔(+5.41%)表现突出,英伟达本周微涨+1.37% [3][11] - **A股细分板块个股涨跌**: - **半导体**:本周涨幅前五为德明利(+18.05%)、国科微(+14.69%)、国民技术(+13.77%)、赛微微电(+11.18%)、圣邦股份(+10.62%)[17][18] - **消费电子**:本周涨幅前五为绿联科技(+14.69%)、利通电子(+9.92%)、隆扬电子(+7.15%)、胜蓝股份(+6.38%)、万祥科技(+6.00%)[18][19] - **元件**:本周涨幅前五为南亚新材(+20.96%)、中英科技(+19.87%)、东山精密(+16.22%)、博敏电子(+11.97%)、金安国纪(+11.73%)[19][20] - **光学光电子**:本周涨幅前五为华灿光电(+9.46%)、华体科技(+9.43%)、瑞丰光电(+8.43%)、腾景科技(+8.17%)、利亚德(+7.72%)[21][22] - **电子化学品**:本周涨幅前五为华特气体(+15.49%)、天通股份(+13.21%)、莱特光电(+12.34%)、上海新阳(+11.52%)、鼎龙股份(+8.22%)[22][23] GTC大会技术前瞻总结 - **LPU(语言处理单元)**:是一种针对大模型推理场景优化的专用计算架构,强调低延迟、高吞吐和序列计算效率 [26]。Groq的LPU架构通过确定性执行、简化调度和高带宽数据路径设计实现优势 [26]。预计英伟达可能在GTC大会上推出新一代Feynman架构,并在推理加速单元中引入LPU架构 [26]。LPU的规模化应用将提升对高带宽、低损耗互连的要求,可能带动服务器主板及加速卡PCB(层数、材料、设计)升级,从而提升高阶PCB产业链价值 [26] - **CPO(光电共封装)**:是将光模块与交换芯片共同封装的技术,可缩短电信号传输距离,降低功耗与信号损耗 [29]。随着AI算力集群扩大,传统可插拔光模块面临挑战,CPO是演进方向 [29]。预计CPO导入将分阶段推进:短期优先在数据中心Scale-out网络落地,中长期有望在Scale-up高速互连中大规模应用 [29]。CPO在带宽密度、系统能效和信号完整性方面具备优势,适用于超大规模AI集群 [29]。预计英伟达在GTC大会上可能推出Scale-up的CPO解决方案 [29]。根据英伟达路线图,Quantum 3450 CPO计划于2025年下半年推出,Spectrum 6810/6800 CPO计划于2026年下半年推出 [30] - **存储(HBM)**:AI算力驱动高带宽存储(HBM)需求提升,产能持续紧缺 [32]。下一代HBM4预计将在带宽、容量、能效方面进一步提升,可能在接口带宽和堆叠层数(如12层、16层)上实现新突破 [32][33]。HBM技术正向更高带宽、更高堆叠层数及更先进封装协同发展演进 [32]。目前HBM市场由少数头部厂商主导,格局集中 [32]。英伟达也在优化AI推理场景的存储架构,如扩大上下文存储能力以支持更长序列推理 [32]。在AI算力需求快速增长下,HBM产能偏紧,部分高端产品订单排期长,市场价格呈上行趋势,产业链景气度有望维持高位 [32] 建议关注标的 - **海外AI产业链**:工业富联、沪电股份、鹏鼎控股、胜宏科技、生益科技、生益电子等 [4] - **国产AI产业链**:寒武纪、芯原股份、中芯国际、华虹半导体、深南电路等 [4] - **存储产业链**:兆易创新、普冉股份、东芯股份、恒烁股份、德明利、江波龙等 [4]
这一巨头,看好大芯片
半导体行业观察· 2026-03-15 10:20
公众号记得加星标⭐️,第一时间看推送不会错过。 亚马逊云科技(AWS)计划在其数据中心内部署由Cerebras设计的处理器,这是外界对这家专注于 AI 模型算力芯片的初创公司投下的最新一票信任。 根据两家公司周五公布的多年合作协议,AWS 将采用 Cerebras 的晶圆级引擎(WSE)芯片,为 AI 模型的推理业务提供算力,让模型能够响应用户请求。 双方并未披露协议的财务条款。 这笔交易凸显出算力市场的重大转变:AI 行业正从模型训练逐步转向推理。开发 AI 工具与智能体 的企业意识到,图形处理器(GPU)虽然在训练环节快速且强大,但对于追求更低延迟、更高响应速 度的推理任务而言并非理想选择。随着业务快速扩张、新增数百万用户,许多企业也在寻求供应商多 元化。 作为全球最大云服务商,AWS 数据中心长期高度依赖旗下半导体部门Annapurna Labs自研的芯片, 其中Trainium芯片大致对标英伟达、AMD 等大厂的 GPU 产品。 据《华尔街日报》报道,今年 1 月,ChatGPT 开发商 OpenAI 已与 Cerebras 签署价值超 100 亿美 元的协议,为其热门聊天机器人提供算力。该交易让 C ...
产业链重视CXL技术,英伟达有望推进
东方证券· 2026-03-14 19:53
行业投资评级 - 对电子行业评级为“看好”(维持)[5] 报告核心观点 - 产业链重视CXL技术,英伟达有望推进,CXL内存池方案将重塑AI存储架构,优化效率并支撑更大规模、更高并发的AI任务[2][3][8] - 当前AI存储架构存在调度低效、资源分配静态化等问题,CXL内存池方案通过统一寻址与调度,有望拓展内存空间并提供灵活资源分配,提升AI模型训练和推理能力[8] - CXL相关软硬件逐步完善,头部厂商正加速推进布局,CXL 4.0规范数据速率达到128 GT/s,较CXL 3.0翻倍,国内服务器厂商也已推出相关方案[8] - 各大厂商持续创新以适配AI推理需求,例如浪潮信息的“存传一体”KVCache管理系统和北京大学联合阿里云提出的基于CXL的Engram内存池方案,有望进一步提升推理效率并降低成本[8][14] 产业链与公司动态 - 英伟达Vera CPU有望支持CXL协议[8] - 英伟达于2025年9月收购Enfabrica,其ACF-S超级网卡芯片整合PCIe/CXL交换与以太网RDMA功能,支持10万级GPU互联,并通过共享DDR5内存缓解HBM瓶颈[8] - SK海力士已完成基于CXL 2.0的DDR5客户验证[8] - 阿里云于2025年推出全球首款基于CXL 2.0 Switch技术的PolarDB数据库专用服务器[8][17] - 浪潮信息于2025年12月推出元脑服务器CXL内存扩展方案,并在2026年3月基于CXL内存池化技术推出“存传一体”的KVCache管理系统MantaKV[8] - 2026年3月,北京大学联合阿里云等首次提出使用CXL内存池来存储Engram,并集成到SGLang框架中,实现了接近本地DRAM的端到端性能[8][17] 投资建议与标的 - 建议关注CXL技术产业链,相关标的包括:澜起科技(688008,买入)、聚辰股份(688123,未评级)、江波龙(301308,未评级)、佰维存储(688525,未评级)等[3][9]
英伟达GTC 2026大会黄仁勋主题演讲观看指南
搜狐财经· 2026-03-13 23:38
年度GTC开发者大会概况 - 英伟达将于下周在加州圣何塞举办年度GPU技术大会,这是公司的年度旗舰活动[2] - 首席执行官黄仁勋的主题演讲安排在周一太平洋时间上午11点/东部时间下午2点举行,演讲时长为两小时,可在SAP中心现场或通过官网在线直播观看[2][5] - 这场为期三天的大会将聚焦AI在医疗保健、机器人技术、自动驾驶汽车等各个行业的未来发展[2] 软件产品发布预期 - 据传公司将发布一个面向企业AI智能体的开源平台,名为NemoClaw[2] - 该平台旨在为企业提供结构化的方式来构建和部署能够自主执行多步骤任务的AI智能体[2] - 此举将使公司能够提供与OpenAI等公司类似的服务[2] 硬件产品发布预期 - 据传公司将发布一款专门用于加速AI推理过程的新芯片[3] - AI推理是指AI模型应用已学知识生成响应或做出决策的过程,与初始训练过程不同[3] - 更快、更便宜的推理被广泛认为是大规模扩展AI应用的关键瓶颈之一[3] 1. 这款芯片代表了公司不仅要主导其已占据约80%份额的AI训练市场,还要主导推理市场的最新努力[3] 市场战略与竞争格局 - 在AI推理市场,来自谷歌、亚马逊等公司定制芯片的竞争正在快速加剧[3] - 公司据报去年底向推理公司Groq支付了200亿美元来授权其技术[3][7] - Groq的创始人、总裁及团队成员已同意加入英伟达,以帮助推进和扩展这项授权技术[3] 大会其他内容 - 大会上将有一系列合作伙伴关系公告和演示,展示公司在各个行业的AI能力[4]
联特科技辟谣“送样英伟达未通过”
21世纪经济报道· 2026-03-12 20:44
公司声明与市场传闻 - 针对网络传闻“联特科技800G/1.6T产品已实现批量出货,并获取英伟达800G及谷歌800G小批量订单”,公司官方予以否认,称相关信息均为非官方发布 [1] - 公司明确表示,其800G产品一直处于量产状态,而1.6T产品仅具备量产能力,目前并未实现出货 [1] - 对于“供货谷歌”等具体客户信息,公司表示从未对外公布,并提醒投资者对网络谣传保持谨慎 [1] - 公司已发布《关于近期网络不实信息的严正声明》,强调所有事项均以官方公开披露信息为准,并保留追究散布不实信息者法律责任的权利 [1] 公司经营与财务表现 - 联特科技主营业务为光通信收发模块的研发、生产和销售 [2] - 2025年前三季度,公司实现营业总收入8.47亿元,同比增长31.75% [2] - 2025年前三季度,公司实现归母净利润0.82亿元,同比增长31.39% [2] 股价市场表现 - 截至3月12日收盘,联特科技股价报收228.56元/股,当日下跌2.32% [2] - 公司总市值为296.5亿元 [2] - 在声明发布前的近两个交易日内,公司股价已累计下跌超过11% [2]
云天砺飞自研AI推理芯片,落地千卡集群
半导体芯闻· 2026-03-12 18:31
智算集群是人工智能时代的基础设施。如果说电力支撑了工业时代,互联网支撑了信息时代,那么 智算正在成为支撑AI时代的重要底座。 如果您希望可以时常见面,欢迎标星收藏哦~ 3 月 12 日,云天励飞中标湛江市AI渗透支撑新质生产力基础设施建设项目,中标金额4.2亿元。 项目将基于云天励飞自研的国产AI推理加速卡,建设国产AI推理千卡集群。 该集群将搭载DeepSeek等国产大模型,为政务、产业及各类应用场景提供更加便捷、低成本的AI 能力,探索打造"国模国芯"的AI生态样板。 一、AI算力从"训练优先"走向"推理优先" 在AI算力体系中,算力大体可以分为训练算力与推理算力。训练算力决定模型如何完成"从0到 1"的能力构建,而推理算力则直接支撑AI应用落地。无论是春节期间大热的SeeDance,近期广泛 讨论的"小龙虾",还是各行业不断上线的AI Agent应用,背后都离不开推理算力的支撑。根据 Gartner预测,到2026年,约55%的AI专用云基础设施支出将用于推理工作负载。 过去,国内许多智算中心普遍采用"训推一体"的建设模式。而此次在湛江建设的集群,则定位为专 注推理任务的AI推理集群,主要面向各类行业应 ...
LPU会带来哪些增量
2026-03-12 17:08
LPU技术及AI推理市场分析纪要总结 一、 涉及的公司与行业 * **公司**:Groq(已被NVIDIA收购)、NVIDIA[1][2][7]、三星电子[1][7] * **行业**:AI芯片(推理芯片)、半导体制造与封装、数据中心基础设施[1][7][8][9] 二、 LPU的核心观点与独特设计 * **核心定位**:LPU是一种专为AI推理,特别是语言模型推理设计的处理器,核心解决Decode环节的内存密集型瓶颈[1] * **硬件设计**:采用片内集成大量SRAM替代片外HBM,实现近存计算,大幅缩短数据传输距离以克服延迟瓶颈[1][2] * **软件设计**:采用编译器预调度模式,编译器预先计算并安排每个时钟周期的数据位置与计算操作,节省了传统GPU中指令调度单元的面积,将更多空间用于集成SRAM[2] * **设计理念**:追求极致确定性,更接近为特定模型定制的ASIC[1][4] 三、 LPU与GPU/TPU的对比及市场定位 * **与GPU对比**:GPU侧重通用性,依赖片外HBM,在处理高频读取的推理任务时存在时间开销;LPU则通过片上SRAM和编译器优化在低时延推理上具备代差优势[1][4] * **与TPU对比**:TPU侧重矩阵乘法效率,其脉动阵列架构在加载参数后无需频繁访问内存;LPU则针对语言处理中的序列生成进行了优化[1][4] * **芯片布局差异**:LPU的片上存储面积占比较大,而GPU和TPU将更多面积分配给了计算单元[4] * **市场应用**:LPU主要适用于参数和架构相对确定的模型推理,单一部署有难度,更适合与通用GPU结合使用以实现优势互补[2][3] 四、 AI推理的“PD分离”趋势及硬件需求 * **Prefill环节**:负责一次性处理完整用户指令,具有高并行、大batch size特点,是计算密集型过程,核心瓶颈在于算力,对KV Cache缓存大小和低延迟依赖性相对较小[4][5] * **Decode环节**:负责逐个生成token,是串行运算过程,需要频繁读取历史KV Cache,对读取延迟极为敏感,是内存密集型过程,核心瓶颈在于内存带宽和数据调度效率[4][5] * **硬件匹配**:Prefill环节适用高算力芯片(如采用GDDR的CPX产品),Decode环节则适合采用SRAM架构以降低延迟的LPU[1][5] 五、 NVIDIA的战略布局与收购背景 * **收购背景**:NVIDIA于2026年初以200亿美元收购Groq,着眼于推理侧市场崛起,应对AI模型调用量与年度经常性收入的增长趋势[2] * **存储技术多元化布局**: * **SRAM**:通过收购Groq发展LPU,专注解决需要极致低延迟的近存计算场景[1][6][7] * **HBM**:在旗舰GPU产品线持续升级,未来将采用HBM4,以满足高性能计算和训练需求[1][7] * **DRAM**:在CPX等产品上采用GDDR,为计算密集型任务提供高性价比解决方案[1][7] * **SSD**:正在探索独立的存储机柜方案,专门用于存储KV缓存等数据[1][7] 六、 LPU的局限性 * **成本高昂**:SRAM成本远高于DRAM,且大模型推理需多芯片堆叠,进一步推高初始成本[2] * **灵活性不足**:软件栈是为特定模型预先设计的,应对不同模型架构迭代或变化时的灵活性不足[2][3] 七、 产业链增量与技术进步 * **制造与产能**:Groq在2025年委托三星电子的晶圆代工订单从约9,000片增加到1.5万片,产业化进程加速[1][7] * **SRAM技术**:可能向3D堆叠或分层管理等方向发展[1][8] * **封装与PCB**:芯片封装技术演进(如背部供电设计)可能导致PCB层数增加或采用新材料;LPU的集成方式(3D-SoIC、2.5D CoWoS或独立模块)将对PCB及其上游材料提出新要求[8] * **高速互联**:LPU系统内部的高速互联需求可能会催生新的Switch产品,根据集成方案不同可能会采用新的芯片架构(如FPGA)[9] * **散热方案**:随着系统集成度和功耗提升,液冷解决方案的需求预计将增加[1][9]
科技:GTC2026前瞻:RubinUltra与Feynman细节或更新,LPU值得期待
华泰证券· 2026-03-12 11:05
行业投资评级 - 科技行业评级为“增持”,且评级维持不变 [5] 报告核心观点 - 报告预计GTC 2026大会的核心在于AI推理上升为系统级基础设施,Rubin与Rubin Ultra构成平台底座,Feynman延续长期架构优势,CPX与LPU分别面向Prefill计算和超低延迟Decode,CPO与光互连或为焦点 [2] - 报告重申两项趋势:2026年或成为Agentic AI的元年,CPO将迈入实质性落地阶段;英伟达近期整合Groq以及对Lumentum与Coherent合计约40亿美元的投资印证了未来趋势 [2] - 报告认为,英伟达CEO黄仁勋提出的AI五层结构(能源→芯片→基础设施→模型→应用)与报告此前对AI Factory体系的判断基本一致 [2][12] 产品与技术路线图 - **Rubin Ultra与Kyber机架**:预计GTC 2026重点将转向Rubin Ultra及其配套的Kyber机架(NVL576),该机柜或集成144颗Rubin Ultra GPU(共576个die),整机功耗约600 kW,采用800VDC供电,系统采用四机箱纵向排列,每个机箱配置18个compute blade,每个blade集成8个GPU die [2][7] - **Feynman架构**:TrendForce预计Feynman或采用台积电A16工艺并引入SPR背部供电,计划于2028年推出;其I/O die亦存在外包至Intel的可能 [2] - **LPU整合路径**:报告认为独立的LPU机架(或命名LPX)可能是阶段性方案;长期看,自Feynman架构起,Groq的LPU能力有望逐步纳入英伟达GPU路线图,并以架构级方式融入CUDA软件栈;据Semi Vision报道,英伟达正评估256颗LPU版本的LPX机架(初代仅为64颗LPU) [3][8] - **CPX存储方案**:考虑到GDDR7供给偏紧以及Prefill阶段互连带宽需求可能高于预期,报告预计CPX的存储方案或由128GB GDDR7转向HBM4,这可能造成HBM供给进一步紧缺 [3] - **高端存储供应链**:据韩国每日经济新闻报道,三星与海力士已进入Rubin的高端存储供应链,而美光或主要面向CPX等推理产品供货 [3] 光互连与CPO演进 - **CPO重要性**:报告预计CPO与光互连将为GTC 2026重要主题,看好硅光沿Scale-Out→Scale-Up→OIO的演进路径,2027年或成为CPO放量的重要时间节点 [4] - **Scale-Out CPO交换机**:Rubin已开始导入Scale-Out CPO,其中Spectrum-6800和Quantum X800带宽分别为409.6 Tb/s(512×800G)与115.2 Tb/s(144×800G) [4][10] - **Scale-Up CPO交换机**:预计本次GTC或推出Scale-Up CPO交换机以配套Rubin Ultra(可能为双柜架构,区别于NVL576单柜架构) [4] - **封装平台**:报告看好台积电COUPE或为CPO封装的主流平台;英伟达与博通等客户正加速推进COUPE平台适配;台积电有望通过COUPE与CoWoS技术结合,实现光电互连与先进封装的一体化集成 [4] - **长期展望**:报告认为CPO封装或进一步下沉至GPU芯片层面,从而推动OIO全光互连架构逐步落地 [4] 系统设计与互连技术 - **Kyber机架互连**:Semi Vision预计系统将引入正交背板(Orthogonal Backplane),通过78层PCB实现GPU与NVSwitch互连,大幅减少铜缆使用,并采用M9与PTFE复合材料降低信号损耗 [2] - **LPX机架设计**:Semi Vision报道,LPX机架将采用52层M9 Q-glass PCB以支持互连 [3]
英伟达计划推出全新推理芯片!科创芯片设计ETF天弘(589070)近10日净流入超1500万元
搜狐财经· 2026-03-11 09:39
科创芯片设计ETF天弘(589070)市场表现 - 截至2026年3月10日收盘,该ETF换手率为10.37%,成交额为6443.45万元,市场交投活跃 [1] - 其跟踪的上证科创板芯片设计主题指数(950162)当日下跌1.13% [1] - 成分股表现分化,龙芯中科领涨6.90%,纳芯微上涨4.24%,佰维存储上涨3.50% [1] - 近10个交易日内,该ETF合计资金净流入1555.00万元 [2] 产品定位与配置价值 - 该ETF通过聚焦科创板芯片设计企业,实现了三大细分赛道的全覆盖,旨在捕捉单一赛道爆发式增长的同时,通过赛道分散降低个股风险 [2] - 当前半导体行业处于复苏周期,叠加政策与需求双重利好,其配置价值进一步凸显 [2] 行业热点:英伟达GTC 2026大会与AI推理芯片进展 - 英伟达GTC 2026开发者大会临近,预计将集中展示Feynman新架构、Rubin Ultra强化平台及LPU推理芯片 [2] - 其中LPU采用大模型推理专用架构,片上SRAM存储带宽达80TB/s,显著优于GPU的HBM方案,其低时延与高能效特性将加速AI实时推理应用落地 [2] - 相关技术升级将带动PCB、散热、电源及SRAM等材料的需求 [2] - 英伟达计划推出整合Groq LPU技术的全新推理芯片,以应对AI推理侧对高效能、低成本的需求及行业竞争 [3] - Groq近期决定提高其人工智能芯片产量,该芯片去年外包给三星电子晶圆代工部门,今年的产量将从约9000片晶圆增加到约15000片晶圆 [3] - Groq由前谷歌TPU核心成员创立,2025年英伟达获得其技术授权并吸纳其90%的员工 [3] 半导体行业现状与趋势 - 进入2026年,半导体行业正经历一场看似全面复苏、实则极度分化的涨价浪潮,全产业链涨价幅度从10%延伸至80%不等 [4] - 本轮涨价的本质是AI算力基础设施爆发对传统产能的强势挤出 [4] - 全球AI芯片市场规模从2019年的110亿美元飙升至2025年的726亿美元,高带宽内存(HBM)与先进制程的稀缺性抬高了整个产业链的成本基准 [4] - 同时,传统消费电子与工业芯片需求的复苏乏力问题暴露 [4] 天弘ETF产品线概览 - 天弘提供覆盖多种类别和策略的ETF产品,包括宽基、科技、制造、金融、医药、消费、商品、QDII及债券等 [5][6] - 科技类ETF包括计算机ETF(159998)、港股科技ETF天弘(159128)、电子ETF(159997)、芯片ETF天弘(159310)、科创芯片设计ETF天弘(589070)、云计算ETF天弘(517390)等,标签涉及人工智能、国产替代、周期反转、高弹性高成长等 [5] - 制造类ETF包括机器人ETF(159770)、光伏ETF(159857)、航空航天ETF天弘(159241)等 [6] - 其他类别还包括金融、医药、消费、周期、策略、商品及债券等领域的ETF产品 [5][6]