Workflow
如何看待AI手机对端侧&云端算力影响
21世纪新健康研究院·2025-02-17 00:33

纪要涉及的行业和公司 - 行业:智能手机、算力 - 公司:苹果、高通、联发科 纪要提到的核心观点和论据 算力发展趋势 - 观点:算力从云端分流到端测运行是大势所趋,但目前端测SOC算力水平和端测模型能力仍有较大提升空间 [2] - 论据:无 专制算力落地路径 - 观点:专制算力落地可行路径有两条,一是端测SOC硬件性能不断提升以支撑AI需求,二是端测小模型针对组织功能做定向优化以减轻算力负载 [2] - 论据:高通、联发科等核心SoC厂商陆续发布全新旗舰SoC,如联发科冲击9400在工艺上功耗降低40%,性能提升40%,还搭载第八代AI处理器NPU890 [9] 端测和云端算力关系 - 观点:端测和云端算力并非此消彼长的关系,端测AI对算力总盘拉动作用会长期存在,特定场景中云端推理仍是不错选择 [2] - 论据:苹果采用端源混合方式,端测运行大部分功能,云端用于弥补端测算力不足 [5] 手机AI算力需求测算 - 观点:通过测算累计AI手机用户数和单日单机算力需求来评估手机AI算力需求 [3] - 论据:预计24 - 28年全球AI手机渗透率分别为16%和54%,到2030年渗透到千元级价格带;27 - 30年AI手机增速维持双位数水平;25年和26年云端算力需求折算成Blackwell GPU的Fp8定位至少需要12万和103万张算力卡 [3][4] 端测AI应用场景 - 观点:苹果引领端测AI在手机场景的应用,采用端源混合方式,多数功能直接通过端测运行,云端弥补算力不足 [5] - 论据:苹果在WWDC20公布Apple Intelligent,推出图像生成等功能;iOS 18.2的beta中实现OpenAI加入CAT GPT集成到Siri [5][6] 端测AI对云端算力的依赖 - 观点:端测AI有成本、能耗、隐私安全和个性化等优势,但受算力限制仍需云端辅助 [7] - 论据:具备AI功能的手机、PC等便携终端数量达数十亿台,利用大模型端测AI处理有提升空间,但端测AI处理能力是实现全球规模扩张的关键 [8] 其他重要但可能被忽略的内容 - 苹果写作工具具有校对文本、重写版本、修改语气措辞、总结关键点等功能,除部分复杂功能推理算力需求依赖云端辅助外,其他功能可在端测运行 [6] - 符合IDC要求支持端测大部分功能的SoC有苹果A17 Pro、联发科天玑9300、骁龙8G3以上以及最新发布的天玑9400、骁龙8最根版,但端测AI算力远不足以支持原生大模型需求,轻量化小模型效果与原生大模型有差距 [11] - 预计端测简单功能在7B小模型上实现,未来有望向13B渗透,复杂功能有望通过外部大模型实现,随着端测硬件升级和小模型对细分功能强化,复杂功能将逐渐被端测算力消化 [14] - 以单人单机文本推理需求测算,端测算力需求在24 - 27年呈单位数以上增长,27 - 30年维持双位数增长;27年全球AI手机算力需求约15541亿T Blob,30年约64855亿T Blob [16][17]