高通进军数据中心AI推理市场 - 公司于10月27日宣布推出面向数据中心的下一代AI推理优化解决方案,包括基于Qualcomm AI200和AI250芯片的加速卡及机架级解决方案 [1] - AI200和AI250预计将分别于2026年和2027年实现商用,公司计划每年更新一次数据中心路线图,专注提升AI推理性能、能效和总拥有成本(TCO) [1] - 受此消息影响,10月27日公司股价一度猛拉20%涨幅,最终以11.09%涨幅收盘,但次日回落3.54%报181.03美元/股 [1] 产品技术规格与差异化 - Qualcomm AI200是专用机架级AI推理解决方案,针对大语言模型和多模态模型推理,每张加速卡支持768GB LPDDR内存,旨在提供低TCO和优化性能 [4] - Qualcomm AI250首发基于近存计算的内存架构,实现超过10倍的有效内存带宽和更低功耗,支持解耦式AI推理并高效利用硬件资源 [4] - 两款机架解决方案均采用直接液冷散热以提高效率,支持PCIe纵向扩展和以太网横向扩展,整机架级功耗为160千瓦 [7] - 不同于主流AI加速芯片采用HBM方案,公司采用LPDDR内存以降低成本,与强调更低TCO的逻辑一致 [8] 市场战略与客户进展 - 公司总裁兼首席执行官Cristiano Amon在7月财报会上预告数据中心市场扩张是新增长机遇,基于CPU和NPU沉淀,是多元化战略的合理延伸 [8] - 公司宣布与沙特阿拉伯国家级AI公司HUMAIN合作,计划自2026年起部署200兆瓦的Qualcomm AI200和AI250机架式解决方案,打造全球首个边缘到云端混合AI [9][10] - 公司官网已展示数据中心产品矩阵,包括Qualcomm Cloud AI 100 Ultra、AI 200、AI 250、人工智能推理套件和服务器CPU五大类 [10][15] 业务背景与历史尝试 - 公司曾在2017年推出基于Arm架构的数据中心CPU产品Centriq 2400,但因服务器市场以英特尔x86为主且Arm生态不成熟而折戟 [3][18] - 2021年3月公司以14亿美元完成对专注于数据中心CPU的Nuvia公司的收购,并推进收购Alphawave以补充高速有线连接和计算技术 [18][19] - 第三季度财报显示,手机业务收入63.28亿美元占QCT部门70.37%,同比增速7%低于QCT整体11%的增速,更远低于IoT的24%和汽车业务的21%增速 [16] 行业竞争与生态挑战 - AI推理市场空间被公认高于AI训练市场,但面临云服务厂商自研ASIC芯片、新兴AI芯片公司等多样化竞争 [19] - 公司虽推出AI推理芯片与英伟达竞争,但5月仍被列入英伟达NVIDIA NVLink Fusion合作伙伴名单,体现多条腿走路的生态扩展策略 [20] - AI芯片落地关键依赖软件和生态能力,英伟达凭借近20年搭建的CUDA工具链形成壁垒,但AI推理市场可接纳定制化细分需求,为后来者留有机会 [20]
高通挑战英伟达