Workflow
Linear Attention
icon
搜索文档
小米小爱同学:资源受限下,实现端侧大模型的高性能推理
AI前线· 2025-06-25 12:15
端侧大模型工程化挑战与解决方案 - 端侧部署面临模型体积、推理时延、功耗和更新机制等极高要求,需融合系统优化、模型压缩和软硬件协同[1] - 小米团队通过自研推理框架实现180 tokens/s实时推理性能,采用LoRA插件化+共享基座模型支持多业务复用[1] - 未来突破将依赖面向大模型优化的硬件能力提升和模型架构演进如Linear Attention[1] 商业化部署核心技术门槛 - 端侧设备资源限制导致可部署模型参数量难以超过4B,低比特量化造成效果损失[3] - 大模型快速迭代与端侧更新机制滞后形成矛盾,云端更新更灵活[3] - 当前处于技术积累阶段,需等待计算能力提升或模型稳定后进入部署阶段[3] 自研推理框架优化策略 - 动态输入支持通过自动切分输入尺寸提升资源利用率,避免传统padding方式浪费[6] - 投机推理在端侧实现7-10倍decoding加速,推理速度从20+tokens/s提升至200 tokens/s[6] - 量化与指令级优化通过Neon指令集加速CPU操作[7] 业务需求对架构设计的约束 - 语音助手业务链路由感知、理解和满足三阶段串行执行,并发需求较弱[7] - 端侧NPU硬件设计以串行执行为主,multi-batch收益有限[8] - 通过调度和切换机制保障各业务链路在预期时间内完成推理[8] 共享基座架构设计 - 12GB内存手机部署4B模型需近3GB内存,采用共享基座+LoRA插件化实现多业务复用[9] - 运行时动态切换不同业务LoRA模块,实现参数共享+差异定制[10] - 该架构在内存利用率和扩展能力上具有优势[10] 跨芯片平台部署策略 - 框架设计采用模块化、后端解耦思路,抽象通用接口适应不同硬件平台[11] - 大模型优化技术更多针对模型结构特性,与底层硬件绑定程度较浅[11] 性能优化组合策略 - 低比特量化、并行解码、带宽控制等技术可同时组合使用[12] - 优先选择技术价值大、适用面广、无冲突的优化方式[12] - 模块化分层设计使上层调用无需关心底层适配逻辑[12] 未来技术突破方向 - 硬件进步是关键突破点,新一代面向大模型的端侧芯片将大幅增强能力[14][15] - Linear Attention架构可解决Transformer内存随context增长的问题[16] - 多模态任务输入长度增长使传统Transformer面临资源瓶颈[16][17]