LPU架构
搜索文档
寒武纪:2025 年业绩快报点评LPU引领推理算力创新,国产算力龙头新机遇可期-20260228
国联民生证券· 2026-02-28 18:25
报告投资评级 - 维持“推荐”评级 [4][8][9] 报告核心观点 - 公司是国产AI芯片龙头,2025年业绩迎来重要拐点,实现扭亏为盈,并有望在LPU(语言处理单元)发展大趋势下,凭借前瞻性技术布局和创新研究成果,长期受益于AI推理算力需求增长 [8][9] 2025年业绩表现 - **营业总收入**:2025年实现64.97亿元,同比增长453% [8] - **归母净利润**:2025年实现20.59亿元,上年同期为-4.52亿元,实现扭亏为盈 [8] - **扣非归母净利润**:2025年实现17.70亿元,上年同期为-8.65亿元 [8] - **第四季度业绩**:2025Q4归母净利润4.5亿元,同比增长67%;扣非归母净利润3.5亿元,上年同期约为-250万元 [8] - **业绩增长原因**:受益于人工智能行业算力需求持续攀升,公司凭借产品竞争力拓展市场,推动AI应用场景落地,带动收入规模大幅增长 [8] 行业趋势与技术创新 - **LPU架构重要性提升**:2025年12月,英伟达与AI推理芯片公司Groq达成200亿美元技术许可协议,旨在获取其低延迟、高效率的LPU推理技术,以加深平台护城河 [8] - **LPU性能优势**:现有LPUs(如Groq LPU、Cerebras WSE)通过预加载权重或固化数据流,能效较传统CPU、GPU、NPU提升4~20倍 [8] - **行业能耗挑战**:预计到2028年美国AI数据中心将占用12%的总电力容量,核心原因是当前LPUs和GPU在自回归解码中反复调取千亿级权重参数,导致功耗提升 [3] - **硬连线LPU创新**:为从根本上解决能耗问题,需将LPU专用化推向极致,提出硬连线LPU(Hardwired LPU),通过将权重参数物理硬连线到计算架构中,实现架构与模型完美匹配、零参数调取开销及极致计算效率 [3] - **技术挑战与突破**:直接硬连线GPT-OSS 120B模型在5nm工艺下需要176,000mm²的CMAC阵列,经济性存挑战;论文提出“金属嵌入”方法,将权重嵌入金属线3D拓扑,使硬连线LPU的非经常性工程成本进入经济可行范围 [3] - **公司研究成果**:中科院计算所与公司团队在ASPLOS2026发表的论文提出了硬连线神经语言处理单元(HNLPU)架构 [8] - **HNLPU性能数据**:在5nm工艺下,HNLPU实现249,960 tokens/s的吞吐量,是英伟达H100的5555倍、Cerebras WSE-3的85倍;能效达到36 tokens/J,是H100的1047倍、WSE-3的283倍;总芯片面积为13,232mm² [3][9] 财务预测与估值 - **营业收入预测**:预计2025-2027年营业收入分别为64.97亿元、95.37亿元、118.53亿元 [9] - **归母净利润预测**:预计2025-2027年归母净利润分别为20.59亿元、36.28亿元、51.28亿元 [9] - **每股收益预测**:预计2025-2027年EPS分别为4.88元、8.60元、12.16元 [9] - **市盈率预测**:对应2025-2027年PE分别为241倍、137倍、97倍 [9] - **毛利率趋势**:预计毛利率从2024年的56.7%持续提升至2027年的67.0% [10] - **净资产收益率**:预计ROE从2025年的13.24%提升至2027年的22.69% [10]
寒武纪(688256):2025 年业绩快报点评:LPU引领推理算力创新,国产算力龙头新机遇可期
国联民生证券· 2026-02-28 15:54
报告投资评级 - 维持“推荐”评级 [4][9] 核心业绩与财务表现 - 2025年度实现营业总收入64.97亿元,同比增长453% [8] - 2025年度实现归母净利润20.59亿元,上年同期为-4.52亿元,实现扭亏为盈 [8] - 2025年第四季度归母净利润4.5亿元,同比增长67%;扣非归母净利润3.5亿元,上年同期约为-250万元 [8] - 业绩大幅增长核心原因为人工智能行业算力需求持续攀升,公司产品竞争力强,积极推动应用场景落地 [8] - 预计公司2025-2027年营业收入分别为64.97/95.37/118.53亿元,归母净利润为20.59/36.28/51.28亿元 [9] - 预计2025-2027年每股收益(EPS)分别为4.88/8.60/12.16元,对应市盈率(PE)分别为241倍、137倍、97倍 [9] - 2025年毛利率预计为60.4%,并预计在2026年、2027年进一步提升至63.9%和67.0% [10] 技术创新与行业趋势 - 现有AI基础设施面临高能耗问题,预计到2028年美国AI数据中心将占用12%总电力容量 [3] - LPU(语言处理单元)架构是重要发展趋势,英伟达与Groq达成200亿美元技术许可协议,旨在获得低延迟、高效率的推理技术 [8] - Groq的LPU架构依托SRAM实现极致推理速度,比GPU有望快多倍 [8] - 现有LPUs(如Groq LPU、Cerebras WSE)通过预加载权重或固化数据流,能效较传统CPU、GPU、NPU提升4~20倍 [8] - 中科院计算所与寒武纪团队在ASPLOS2026发表论文,提出硬连线神经语言处理单元(HNLPU)架构 [8] - HNLPU旨在解决硬连线LPU的经济性挑战,通过金属嵌入(Metal-Embedding)方法将权重嵌入金属线3D拓扑,使非经常性工程(NRE)成本进入经济可行范围 [3] - 基于该方法设计的HNLPU在5nm工艺下实现249,960 tokens/s吞吐(是H100的5555倍、WSE-3的85倍),能效为36 tokens/J(是H100的1047倍、WSE-3的283倍),总芯片面积13,232 mm² [9] 公司定位与投资建议 - 公司是国产AI芯片龙头,积极研发新一代智能处理器微架构和指令集 [9] - 公司产品在互联网、运营商、金融、能源等多个重点行业持续落地 [9] - 在LPU发展大趋势下,公司前瞻布局相关技术并取得创新性研究成果(HNLPU),有望在长期内受益于LPU发展大趋势 [9]