Workflow
高通挑战英伟达
21世纪经济报道·2025-10-29 11:56

公司战略与产品发布 - 公司宣布推出面向数据中心的下一代AI推理优化解决方案,包括基于Qualcomm AI200和AI250芯片的加速卡及机架级解决方案 [1] - AI200和AI250预计将分别于2026年和2027年实现商用,公司计划每年更新一次数据中心路线图,专注提升AI推理性能、能效和总拥有成本 [1] - 两款产品采用直接液冷散热,整机架级功耗为160千瓦,并采用LPDDR内存方案以降低成本,这与公司强调的低总拥有成本逻辑一致 [8] 市场反应与财务表现 - 产品发布消息使公司股价在10月27日一度猛涨20%,最终以11.09%涨幅收盘,但次日股价回落3.54%至181.03美元/股 [1] - 数据中心业务目前尚未在财报层面体现明显增量,公司第三季度芯片业务收入主要仍由手机业务主导,占比达70.37% [14] - 公司手机业务收入同比增速为7%,低于芯片部门整体11%的增速,也远低于物联网业务24%和汽车业务21%的增速 [14] 客户合作与市场进入 - 公司官宣首位客户为沙特阿拉伯国家级AI公司HUMAIN,双方计划自2026年起部署200兆瓦的Qualcomm AI200和AI250机架式解决方案 [9][11] - 公司总裁兼首席执行官指出,云服务提供商构建专用推理集群、市场向定制Arm兼容CPU转变等趋势为公司创造了市场切入点 [8] - 公司在7月业绩会上透露,正与一家领先的超大规模企业进行深入洽谈,若成功预计将在2028财年开始产生收入 [9] 历史背景与能力构建 - 此次并非公司首次进军数据中心市场,2017年其曾推出基于Arm架构的服务器处理器Centriq 2400,但最终未能成功 [3][16] - 相比上一次,公司通过收并购持续强化能力,例如2021年以14亿美元收购专注于数据中心CPU的Nuvia公司,并正在推进对Alphawave IP Group的收购 [16][17] - 外部市场公认AI推理市场空间将高于AI训练市场,众多玩家正试图以不同于英伟达GPU的差异化打法挖掘增量空间 [17] 产品技术细节 - Qualcomm AI200是专用机架级AI推理解决方案,旨在为大语言模型和多模态模型推理提供低总拥有成本,每张加速卡支持768 GB LPDDR内存 [5] - Qualcomm AI250解决方案首发基于近存计算的内存架构,实现超过10倍的有效内存带宽和更低功耗,支持解耦式AI推理 [5] - 公司官网显示,其数据中心产品/服务已形成包括Cloud AI 100 Ultra、AI 200、AI 250、人工智能推理套件和服务器CPU在内的五大产品矩阵 [11]