高通入局数据中心AI芯片市场 - 高通于10月27日发布面向数据中心的两款AI推理芯片Qualcomm AI200和AI250及机架,AI200计划2026年上市,AI250计划2027年上市,均采用高通Hexagon NPU,主打低功耗、高性价比和模块化部署,直接挑战英伟达[1] - 高通官方表示其数据中心芯片路线图将每年更新一次,并透露沙特支持的AI创业公司Humain将从2026年开始部署200兆瓦的高通新型AI机架,按单机柜160千瓦计算,200兆瓦部署规模相当于约1,250个机架,参考英伟达高端机架级AI系统价格(260万美元至300万美元之间),该合作有望为高通带来超过30亿美元的收入[1] - 这并非高通首次进军数据中心领域,公司曾在2017年推出基于ARM架构的服务器芯片Centriq 2400,但于2020年以关闭"非核心业务"为由停止了该业务,此次入局挑战的对手从英特尔换成了英伟达[2] 市场反应与公司估值 - 消息公布当日,高通股价直线上涨,日内涨幅一度接近21%,截至美股收盘,股价收于187.68美元,涨幅为11.09%,市值单日增加近280亿美元至2025亿美元[2] - 该股价表现不仅跑赢同期纳斯达克指数(上涨1.86%),也创下高通自2019年以来的最大单日涨幅[2] 高通的业务多元化驱动力 - 高通2024财年(2023年9月末-2024年9月末)营收389.6亿美元,同比增长9%,其中芯片业务营收331.9亿美元,手机芯片业务受益于安卓高端机型需求回暖同比增长10%,达到248.63亿美元[3] - 手机芯片业务面临结构性增长瓶颈,主要危机来自苹果加速去"高通化",苹果计划在2025年iPhone 16e开始搭载自研5G基带芯片C1,与高通的基带芯片购买协议将于2026年四季度到期,一家投资量化基金预测,全面替代情况下,2028年高通将损失约77亿美元收入(不含专利授权费)[4] - 全球智能手机市场极度饱和,过去五年全球智能手机出货量分别为12.9亿台(2020年)、13.5亿台(2021年)、12.1亿台(2022年)、11.7亿台(2023年)、12.4亿台(2024年),尽管2024年因AI功能驱动出现6.4%的反弹,但IDC预测2025年增速将放缓至1.6%[5] - 为应对挑战,高通极力发展汽车芯片和物联网芯片,2024财年物联网芯片业务收入54.23亿美元,汽车芯片业务收入29.1亿美元,两者合计占芯片业务总营收的25.1%,公司目标到2029财年,物联网和汽车部门的总收入达到220亿美元[5] 高通在AI领域的技术积累 - 高通在手机端AI积累深厚,其Hexagon NPU经过近二十年迭代,已从基础AI加速模块进化为支撑生成式AI的核心引擎,形成"NPU负责核心AI推理、GPU处理图形渲染、CPU响应即时任务"的异构计算体系[6] - 高通2023年推出的第三代骁龙8已实现终端侧流畅运行100亿参数级大语言模型及视觉大模型,目标在终端侧实现千亿参数级模型的高效运行[6] - 高通打造了相应的AI软件栈(Qualcomm AI Stack),支持目前所有的主流AI框架、运行时环境及工具[6] - 高通技术高管曾强调端侧AI芯片与云端AI芯片联动的重要性与必要性,指出需做好算力分工、数据协同与场景互补以构建更高效的AI应用生态[7] 数据中心AI芯片市场格局与技术路径 - 数据中心AI芯片主要分为英伟达的GPU和其他公司的ASIC芯片,英伟达在2024年营收达到1305亿美元,是高通的三倍以上,其数据中心AI芯片市场增量在2022年至2024年间超过1000亿美元[8] - ASIC芯片是针对特定需求定制的非通用可编程芯片,具备算力密度高、能耗低的优点,高盛预估2025年至2027年全球AI芯片需求量分别为1000万、1400万、1700万颗,其中ASIC芯片占比将从2025年的38%提升至2027年的45%,GPU芯片占比将从62%降至55%[9] - 随着主要模型性能稳定成熟,模型训练的算力需求占比趋于稳定,模型推理的需求正在逐步增长,在推理场景中ASIC芯片与英伟达GPU的差距在缩小[10] - 多家大型科技公司正在定制数据中心专用的ASIC芯片,包括谷歌的TPU系列、亚马逊的Trainium系列、华为的昇腾系列、阿里的PPU系列、百度的昆仑芯系列,以及AI芯片创业公司如Etched、寒武纪、燧原科技等[9][10] 高通AI芯片的产品优势与挑战 - 高通AI200单卡配备768GB LPDDR内存,容量是英伟达GB300芯片的2.67倍,能为大语言模型和多模态模型运行提供充足内存支撑,并支持灵活部署[10] - AI250引入"近存储计算"架构,高通宣称内存带宽提升超10倍且功耗显著降低,两款产品均配备直接液冷散热方案,单机柜功耗达160千瓦,并集成机密计算技术[10][11] - 高通面临的主要挑战是英伟达通过CUDA建立的强大生态壁垒,全球90%的AI开发者依赖其工具链,高通AI Stack在算子库完整性、模型优化工具链成熟度上存在差距[11] - 除Humain外,高通能否吸引其他大型客户采购其AI推理芯片是其长期发展的关键,因谷歌、亚马逊、微软等科技巨头已自研AI芯片[11]
挑战英伟达,高通时隔五年再度入局AI服务器芯片赛道