智微智能(001339) - 2026年3月5日投资者关系活动记录表
智微智能智微智能(SZ:001339)2026-03-05 22:02

公司AI战略布局与投资 - 智微智能近年围绕AI进行系列布局:2024年布局智算业务瞄准训练市场,2025年在具身智能领域开发大小脑控制器且订单快速增长,并投资触觉传感、电机、机器人大脑模型等标的,2026年通过曜腾投资参股杭州元川微科技有限公司,深度布局AI推理芯片领域 [2] - 投资元川微旨在与上游芯片原厂深度绑定,强化从训练端到推理端的优势卡位,增强在AI服务器、具身智能、边缘及端侧领域的产品能力,实现技术、生态、资源、市场的全面协同 [3] 参股公司元川微科技介绍 - 元川微专注于AI推理算力创新,是国内领先的基于LPU架构的算力芯片科技公司 [2] - 公司依托自研硬数据流架构与全资源编译器核心技术,推出面向大模型、多模态和端侧应用场景的Mountain(算力)、River(Agent)两大系列LPU+产品 [3] - 产品优势在于大幅降低推理应用的部署复杂度和总拥有成本,满足推理应用对确定性、超低时延、高算力、高能效与低成本的核心需求 [3] LPU技术原理与架构优势 - LPU是专为推理设计的语言处理单元芯片,针对文本数据特性深度优化,在自然语言理解、文本生成等任务中实现更高效处理 [4] - LPU采用大容量片上SRAM架构,数据直接集成于芯片,访问延迟远低于传统GPU的“存算分离”模式 [4] - LPU采用确定性执行架构,通过“静态时序”规划将计算与通信步骤精确到时钟周期,保障稳定高吞吐量 [4] - LPU速度领先的三大技术原因:硬流水体系结构规避额外开销、片上大容量SRAM及高带宽降低访存时延并提升算子融合效率、静态编译调度机制在编译期完成所有调度 [6] LPU与GPU的性能及成本对比 - 根据Groq CEO在2024年ISSCC大会公布的实测数据:LPU的Token生成速度达到英伟达H100的6倍,单Token成本降至H100的1/4,推理能耗降至H100的1/3 [6] - 元川微自身架构验证数据与Groq接近,且通过进一步架构优化,有望在能效和成本上表现更优 [6] 关于LPU成本与容量的解答 - 成本问题:芯片制造成本核心取决于芯片裸片面积与光罩层数,LPU凭借专用架构实现同等算力所需芯片面积远小于传统GPU,节省的面积用于部署大容量SRAM,不会带来额外制造成本 [7] - 容量问题:新一代LPU可实现单芯片加载超大规模模型,大幅减少部署所需芯片数量,后续可通过按需叠加算力卡方式灵活扩展,支撑按需付费商业模式,降低客户前期投入与部署成本 [8] 未来市场格局与竞争分析 - 展望2027-2028年,未来推理算力占比将达90%(训练占10%),LPU在推理领域因能效比、性价比、时延等方面具有显著竞争力,将主导推理市场,而GPU可能主要聚焦训练及部分推理场景 [8] - 针对GPU/NPU集成3D SRAM吸收LPU优点的竞争问题:GPU/NPU属于冯诺依曼结构,仅微架构优化,底层依赖多级存储和Memory机制,算力密度受限,无法复制LPU非冯诺依曼硬数据流架构及全资源编译器的底层优势 [8]

智微智能(001339) - 2026年3月5日投资者关系活动记录表 - Reportify