高通进军AI推理芯片市场 - 公司宣布推出针对数据中心场景的AI推理优化解决方案,包括Qualcomm AI200、AI250云端AI芯片及对应的加速卡、机架等组件 [2] - 此举使公司在资本市场获得积极反馈,股价在交易时段内最高上涨22%,收盘上涨11%,报187.68美元/股,公司市值单日增加近200亿美元,达到约2025亿美元 [2] - 行业观点认为,公司凭借在端侧芯片的经验和技术积累进军AI推理芯片,可为公司带来新的业务增量,且市场不希望看到英伟达一家独大 [3] AI推理芯片市场竞争格局 - 英伟达在AI推理芯片领域具备很大优势,其迭代能力极强,从Blackwell到新一代Rubin,迭代速度不断加快 [4] - 英伟达Rubin CPX支持百万级Token处理,GDDR7内存让成本大降,投资回报率达30-50倍,Vera Rubin NVL144平台算力较前代提升3.3倍,单位Token成本进一步摊薄 [4] - 高通主打行业最低总拥有成本(TCO)的概念,但其高能效和内存处理能力的竞争优势仍需在实际场景中验证 [4] 高通产品合作与市场定位 - 公司宣布与沙特AI公司HUMAIN合作,从2026年起部署高通AI200、AI250机架解决方案,总规模达200兆瓦,双方还将联合开发尖端AI数据中心 [5] - 通过定制化模式可以精准匹配客户特定需求,实现深度性能优化,高通在成本管理及端侧NPU领域积累的经验能为这种模式提供支撑 [5] - 聚焦AI推理赛道是公司面对英伟达的最优选,2024年全球推理AI芯片市场规模约为142.1亿美元,预计2031年将达到690.1亿美元,2025-2031期间年复合增长率为25.7% [5] AI推理芯片技术特点与需求 - AI推理包含Prefill和Decode两个阶段,与模型训练相比更看重显存带宽的稳定性、适配性以及充足的显存容量,追求高效能效比与低延迟 [6] - 存力需要以更大的带宽、更低的时延将数据搬移到算力集群中计算,影响整个计算单元的算力利用率,检查点的保存时间耗时越短,计算过程被中断的时间便越少 [7] - 推理Token用量每个月都在大幅上涨,高通的推理卡显存非常大,单卡可以支持768GB,相当于单卡可以跑完整的DeepSeek,是当前所有卡中显存最大的,方便私有化部署 [7] 高通与英伟达产品规格对比 - 英伟达Rubin计划2026年底上市,内存容量128GB GDDR7,内存带宽2TB/s,算力30 Peta FLOPS(NV FP4精度),采用分离式推理架构,散热方案为风冷升级液冷 [8] - 高通AI200计划2026年上市,支持每卡768GB LPDDR,每芯片算力500 teraFLOPS,基于Hexagon NPU采用异构集成设计,散热方案为直接液冷 [8] - 高通AI250计划2027年上市,内存容量预计768GB LPDDR,内存带宽较AI200提升超10倍,基于Hexagon NPU采用近存储计算架构,支持分解推理功能 [8] 高通软件生态建设 - 公司AI软件栈覆盖从应用层到系统层的端到端链路,针对AI推理场景优化,支持领先的机器学习框架、推理引擎、生成式AI框架及LLM/LMM推理优化技术 [9] - 开发者可以通过相关套件实现模型导入与Hugging Face模型一键部署 [9] - 凭借差异化的硬件设计以及丰富的软件栈,高通的入局具有合理性,后续将其网络芯片集成进去能打造出具有性能优势的产品 [9]
10倍带宽突破、市值暴涨200亿美元,高通能否「分食」千亿级AI推理市场?
雷峰网·2025-10-30 16:06