NPU芯片

搜索文档
【私募调研记录】民森投资调研科思科技
证券之星· 2025-09-03 08:04
公司经营与财务表现 - 2025年上半年实现营收15,445.69万元 同比增长40.54% [1] - 归母净利润亏损收窄至-10,872.15万元 [1] - 研发费用达13,110.70万元 占营收比例84.88% [1] 技术研发与产品进展 - 第一代通信基带芯片已投入应用 [1] - 第二代通信基带芯片完成流片 第三代进入开发阶段 [1] - 射频芯片完成流片 NPU芯片启动论证 [1] - 与昇腾合作获PN钻石部件伙伴授牌 将获全栈AI技术赋能 [1] 战略布局与业务拓展 - 以AI大模型为核心推进无人集群系统建设 [1] - 拓展应急行业 技术可迁移 入选"应急使命?2025"演习装备名录 [1] - 2025年7月完成董事会换届 新管理层具备丰富经验 [1] 机构调研背景 - 知名私募民森投资于9月2日开展特定对象调研及线上会议 [1] - 民森投资成立于2007年 为中国证券投资基金业协会首批特别会员 [2] - 旗下"民森系列"证券基金及"民森宏观系列"对冲基金以优秀业绩享誉业内 [2]
一条芯片新赛道崛起
半导体行业观察· 2025-06-07 10:08
核心观点 - NPU在AI浪潮中迅速崛起,从智能手机扩展到笔记本电脑,成为AI功能实现的关键芯片 [1] - NPU采用仿生并行架构,相比CPU和GPU在AI任务上具有显著效率优势,尤其适合移动设备 [3][6] - 2017年是NPU商业化元年,华为和苹果率先在手机中集成NPU,如今高端笔记本NPU算力已达45 TOPS [7] - 独立NPU方案突破内存瓶颈,可支持千亿参数大模型本地运行,戴尔和EnCharge AI推出创新产品 [12][15] - NPU正经历从集成到独立、从通用到专用的革命,可能形成新的"智能计算层" [21] NPU的起源与发展 - NPU设计灵感源于1943年麦卡洛克-皮茨的神经网络数学模型,但受限于当时技术条件未能发展 [3] - 1986年反向传播算法突破使神经网络研究复兴,2000年代语音识别商业化推动深度学习发展 [4] - 苹果、IBM、谷歌等科技巨头投入数百亿美元研发,将NPU从理论转化为商用产品 [4] - NPU核心架构仍基于并行处理框架,但依赖深度学习算法和海量数据训练才能发挥作用 [5] NPU的技术优势 - NPU采用硬件级并行架构,可同时进行数万亿次微小运算,实现TOPS级性能指标 [5] - 在卷积计算等AI任务上,NPU比CPU快且功耗低,能效比GPU更优 [6] - 2017年首代手机NPU算力不足1 TOPS,2024年高端笔记本NPU已达45 TOPS [7] - NPU驱动手机智能抠图、背景虚化等功能,支持谷歌"圈选搜索"等创新体验 [9] NPU的市场应用 - 微软2024年推出"AI PC"标准,要求NPU算力不低于40 TOPS,高通骁龙X系列率先达标 [9] - 800美元以下入门笔记本仍采用传统处理器,未能满足AI PC要求 [9] - 戴尔展示搭载双高通Cloud AI 100处理器的概念笔记本,提供64GB专用内存支持1090亿参数模型 [12] - EnCharge AI推出EN100加速器,采用模拟内存计算技术,性能密度达30 TOPS/mm² [15] 独立NPU的创新 - 独立NPU突破内存瓶颈,64GB内存支持本地运行千亿参数大模型,而顶级GPU仅24GB显存 [14] - EnCharge AI的M.2版本NPU在8.25W功耗下提供200 TOPS算力,PCIe版本达1 PetaOPS [15] - 独立NPU形成新计算架构:CPU管通用计算,NPU专攻AI推理,GPU负责图形渲染 [19] - 未来AI PC可能分化为集成NPU轻办公设备、独立NPU专业平台、GPU+NPU双芯方案 [19] NPU的未来趋势 - AI计算向边缘设备分散,独立NPU比集成方案更适合去中心化AI工作负载 [11] - NPU在功耗控制、封装密度、并行优化等方面比GPU更适合纯AI推理任务 [18] - NPU搭配大容量内存更符合"本地大模型"发展趋势,解决GPU内存不足痛点 [18] - NPU革命可能形成纯粹为AI服务的"智能计算层",推动AI从云端真正走入终端设备 [21]