端侧AI周跟踪:Google发布Gemma4,模型能力跃迁催化终端硬件升级周期
谷歌谷歌(US:GOOG) 东吴证券·2026-04-06 22:50

报告行业投资评级 - 增持(维持)[1] 报告的核心观点 - Google发布Gemma 4开源模型,其开源协议全面放开与Android体系落地将驱动端侧硬件升级,并有望开启新一轮换机周期与品类突破 [1][2] - Gemma 4在模型能力上实现跃迁,其技术迭代聚焦于提升内存效率与下沉多模态能力,这将提升端侧任务承载能力并扩大可覆盖的设备范围,对端侧AI产业具有加速意义 [2][5] 根据相关目录进行总结 行业驱动因素与市场前景 - 开源协议全面放开:Gemma 4切换至Apache 2.0协议,提供完全商业自由,显著降低企业采用门槛,有望吸引更多开发者与商业客户回流 [2] - Android生态导入:Gemma 4将作为Gemini Nano 4的基础模型,计划于年内落地新一代旗舰Android设备,承担下一代端侧模型基座角色 [2] - 生态基础雄厚:自首代发布以来,Gemma累计下载量已超过4亿次,拥有超过10万个衍生模型,初步形成Gemmaverse开发者生态 [2] - 催化硬件升级与换机周期:在双重驱动下,端侧模型能力升级有望显著拓展端侧AI能力边界,催化终端硬件性能升级与新形态产品创新,带动新一轮换机周期与品类突破 [2] Gemma 4模型的核心能力与技术突破 - 发布与版本:Google于4月3日发布新一代开源语言模型Gemma 4,包括2B、4B、26B(MoE)及31B(Dense)四个版本 [5] - 核心能力增强:全系模型支持Agent和复杂推理、多模态(图像、视频、音频)、离线代码生成、长上下文(小模型128K,大模型最高256K)以及超过140种语言的原生多语言能力 [5] - 内存效率优化:模型架构延续Per-Layer Embeddings机制,以2B版本为例,总参数约5B,但实际推理仅需加载约2B核心权重,降低了终端硬件门槛 [5] - 长上下文内存优化:通过“交替式滑动窗口+全局注意力”以及Shared KV Cache设计,使KV缓存需求较传统全注意力机制下降74%,优化了端侧内存使用效率 [5] - 多模态能力下沉:首次将视觉+音频的原生多模态能力下沉至2B级模型,为手机端实现理解屏幕、语音交流、跨应用操作等功能提供技术基础 [5] - 技术影响:通过架构创新,一方面提升端侧模型对日常多模态任务的处理能力,另一方面有效降低硬件门槛、扩大可触达设备范围 [5]

端侧AI周跟踪:Google发布Gemma4,模型能力跃迁催化终端硬件升级周期 - Reportify