Workflow
Linger量化训练工具
icon
搜索文档
聆思LNN 3.0正式发布:端侧AI开发平台进入“好用、高效、专业”新阶段
新浪财经· 2026-01-08 19:43
LNN 3.0平台发布与战略定位 - 公司于2026年1月正式上线全自主研发的LNN算法训练推理平台3.0版本 [1][15] - LNN自2023年10月开源以来,凭借“低代码甚至零代码”的AI部署理念,已广泛应用于端侧AI场景 [1][15] - 3.0版本聚焦硬件兼容性扩展、量化训练性能跃升、推理工具链智能化三大方向,标志着平台从“可用”迈向“好用、高效、专业”的新阶段 [1][15] - 公司致力于打通“芯片—算法—大模型—平台工具”的完整技术闭环,为行业提供一站式端侧AI开发体验 [2][16] - 此次发布旨在强化平台易用性与性能,为公司的全栈生态体系注入更强开发动能,推动端侧AI规模化落地与创新应用 [2][16] 硬件兼容性扩展 - LNN 3.0显著增强了对公司自研芯片生态的支持,在原有支持Venus系列基础上,新增对Arcs、VenusA及Mars全系列芯片平台的完整兼容 [4][18] - VenusA是2025年新发布的芯片平台,具备400MHz主频和256Gops算力,支持SMP,并增加了专属MTQ执行模式,由硬件直接调度AI计算,支持多算法并行 [4][18] - Arcs是一款六合一高集成度芯片平台,集成了AI、主控、图形加速、驱屏以及BLE、BT、WiFi6多种无线连接能力,满足AI+IoT场景需求 [4][18] Linger量化训练工具升级 - Linger是LNN的核心组件,是基于PyTorch的神经网络量化训练工具 [7][21] - 3.0版本对其进行了深度重构与功能增强,使其成为更稳定、快速、易集成的量化训练入口 [7][21] - 升级后量化训练速度提升500%+(即5倍以上),大幅缩短训练周期 [10][24] - 增强了环境兼容性,通过开放CPU/GPU算子源码,用户可本地编译生成适配自身环境的动态库,解决环境依赖问题 [10][24] - 支持主流CUDA环境(10.2/11.8/12.4),兼容H200等主流NVIDIA训练卡,解决了旧版对特定CUDA版本的强依赖问题 [10][24] Thinker推理部署工具重构与增强 - Thinker是LNN的通用推理引擎及配套工具集,负责模型打包、性能仿真、模拟部署与推理执行 [8][22] - 3.0版本进行了系统性重构与功能扩展,涵盖架构重组、工具增强、新组件引入与执行器优化四大维度 [8][22] - 架构重组方面,将执行器与离线工具包解耦,新增tools/目录统一管理工具模块,引入workspace/目录集中管理中间文件,提升工程友好度与开发整洁度 [11][25] - tPacker打包工具得到增强,提供极简使用体验,用户仅需指定ONNX计算图路径,其余流程自动完成,并支持配置导出与复用 [11][25] - 优化了算子拆分逻辑,结合芯片底层计算规则对卷积与矩阵乘类算子拆分策略进行优化,缓解了对模型规模大小的限制 [11][25] - 增加了手动调节支持,新增四个关键阈值参数,支持用户在复杂场景下手动调优 [11][25] - 增加了目标平台校验功能,防止模型误部署 [11][25] 新增智能工具组件 - 新增tProfile性能评估工具,基于ONNX计算图自动统计各算子运行效率,进行热点分析并出具性能报表,帮助开发者在设计前期判断是否满足端侧性能约束 [12][13][26][27] - 新增tValidator结果一致性验证工具,实现训练前向推理和仿真推理计算结果的自动比对,替代低效的手动调试方式,提升验证效率与准确性 [14][28] - tValidator可自动生成统一输入数据,分别从训练端和推理端收集中间结果,自动比对差异并精准定位 [16][29] 执行器与算子库深度优化 - 全平台NPU算子库迭代升级,运行效率进一步提升,其中Venus平台平均算子效率提升10% [16][29] - 新增VenusA平台专属MTQ执行模式,所有计算任务由NPU指令队列独立完成,无需CPU参与,显著降低系统负载,提升端侧吞吐能力 [16][29] - 增强辅助校验机制,新增芯片平台信息校验、参数合规性检查、中间结果CRC校验等功能,确保仿真与真实芯片运行结果高度一致 [16][29] - 通过宏指令控制编译开关,在启用校验功能的同时,确保主体计算路径性能不受影响 [16][29]