Workflow
AI推理
icon
搜索文档
高通正面“叫板”英伟达,入局AI芯片能否打破市场格局
华夏时报· 2025-10-31 11:39
公司战略与产品发布 - 高通正式入局AI芯片领域,推出面向数据中心的下一代AI推理优化解决方案,包括基于AI200与AI250芯片的加速卡及机架系统 [1] - AI200芯片预计2026年商用,专为机架级AI推理打造,支持768GB LPDDR内存,旨在为大语言模型和多模态模型推理提供低总体拥有成本与优化性能 [2] - AI250芯片预计2027年商用,将首发基于近存计算的创新内存架构,实现超过10倍的有效内存带宽提升并显著降低功耗 [2] - 公司宣布未来每年都会推出一款新的算力芯片进行迭代 [2] - 此次推出的两款芯片更加强调AI推理(运行AI模型)而非训练 [2] 市场背景与竞争格局 - 自ChatGPT引爆市场以来,AI芯片需求爆发式增长,英伟达作为早期布局者占尽先机,截至10月28日总市值达4.89万亿美元 [4] - AI商业应用重心正从训练转向推理,从集中式AI数据中心向边缘智能迁移,为高通布局AI芯片市场提供机遇 [3] - 高通此次进军AI芯片市场的主要竞争对手是英伟达,后者凭借先发优势和技术护城河占据主导地位 [5] - 专家预计AI芯片市场将形成“云边端协同、多强并存”格局,英伟达主导云端训练,高通等公司有望在边缘侧推理领域崛起 [6] - 2025年全球AI算力市场规模预计达1.21万亿美元,较2024年的8900亿美元增长35.9%,其中硬件市场占比63%,规模约7623亿美元 [8] 公司动机与竞争优势 - 进军AI芯片市场的决策源于对未来三到五年人工智能价值重心从训练转向推理的战略预判 [3] - 拓展业务边界是公司应对手机芯片市场竞争加剧和监管风险的关键战略选择 [1][7] - 公司在边缘侧AI市场(涵盖手机、电脑、汽车、物联网等)具备潜力,其数十年积累的低功耗、高能效技术是区别于英伟达的核心竞争力 [5] - 公司曾于2016年进军数据中心市场但未能成功,此次业务重心转向AI推理 [4][5] 财务表现与市场地位 - 受AI芯片消息利好,公司股价于10月27日盘中飙升20%,收盘涨11.09%至187.68美元/股,市值为2025亿美元,次日出现3.54%回调,市值跌至1953亿美元 [2] - 2025财年第三财季公司营收同比增长10%至103.65亿美元,调整后净利润同比增长25%至26.66亿美元 [6] - 当季手机芯片业务营收为63.28亿美元(同比增长7%),汽车芯片业务营收为9.84亿美元(同比增长21%),物联网业务营收为16.81亿美元(同比增长24%) [6] - 2025年第一季度全球智能手机应用处理器市场份额中,联发科以36%居首,高通以28%位列第二,苹果为17% [7] - 公司面临苹果计划自研调制解调器芯片的挑战,以及中国监管机构因未依法申报收购Autotalks公司而开展的立案调查 [7]
10倍带宽突破、市值暴涨200亿美元,高通能否「分食」千亿级AI推理市场?
雷峰网· 2025-10-30 16:06
高通进军AI推理芯片市场 - 公司宣布推出针对数据中心场景的AI推理优化解决方案,包括Qualcomm AI200、AI250云端AI芯片及对应的加速卡、机架等组件 [2] - 此举使公司在资本市场获得积极反馈,股价在交易时段内最高上涨22%,收盘上涨11%,报187.68美元/股,公司市值单日增加近200亿美元,达到约2025亿美元 [2] - 行业观点认为,公司凭借在端侧芯片的经验和技术积累进军AI推理芯片,可为公司带来新的业务增量,且市场不希望看到英伟达一家独大 [3] AI推理芯片市场竞争格局 - 英伟达在AI推理芯片领域具备很大优势,其迭代能力极强,从Blackwell到新一代Rubin,迭代速度不断加快 [4] - 英伟达Rubin CPX支持百万级Token处理,GDDR7内存让成本大降,投资回报率达30-50倍,Vera Rubin NVL144平台算力较前代提升3.3倍,单位Token成本进一步摊薄 [4] - 高通主打行业最低总拥有成本(TCO)的概念,但其高能效和内存处理能力的竞争优势仍需在实际场景中验证 [4] 高通产品合作与市场定位 - 公司宣布与沙特AI公司HUMAIN合作,从2026年起部署高通AI200、AI250机架解决方案,总规模达200兆瓦,双方还将联合开发尖端AI数据中心 [5] - 通过定制化模式可以精准匹配客户特定需求,实现深度性能优化,高通在成本管理及端侧NPU领域积累的经验能为这种模式提供支撑 [5] - 聚焦AI推理赛道是公司面对英伟达的最优选,2024年全球推理AI芯片市场规模约为142.1亿美元,预计2031年将达到690.1亿美元,2025-2031期间年复合增长率为25.7% [5] AI推理芯片技术特点与需求 - AI推理包含Prefill和Decode两个阶段,与模型训练相比更看重显存带宽的稳定性、适配性以及充足的显存容量,追求高效能效比与低延迟 [6] - 存力需要以更大的带宽、更低的时延将数据搬移到算力集群中计算,影响整个计算单元的算力利用率,检查点的保存时间耗时越短,计算过程被中断的时间便越少 [7] - 推理Token用量每个月都在大幅上涨,高通的推理卡显存非常大,单卡可以支持768GB,相当于单卡可以跑完整的DeepSeek,是当前所有卡中显存最大的,方便私有化部署 [7] 高通与英伟达产品规格对比 - 英伟达Rubin计划2026年底上市,内存容量128GB GDDR7,内存带宽2TB/s,算力30 Peta FLOPS(NV FP4精度),采用分离式推理架构,散热方案为风冷升级液冷 [8] - 高通AI200计划2026年上市,支持每卡768GB LPDDR,每芯片算力500 teraFLOPS,基于Hexagon NPU采用异构集成设计,散热方案为直接液冷 [8] - 高通AI250计划2027年上市,内存容量预计768GB LPDDR,内存带宽较AI200提升超10倍,基于Hexagon NPU采用近存储计算架构,支持分解推理功能 [8] 高通软件生态建设 - 公司AI软件栈覆盖从应用层到系统层的端到端链路,针对AI推理场景优化,支持领先的机器学习框架、推理引擎、生成式AI框架及LLM/LMM推理优化技术 [9] - 开发者可以通过相关套件实现模型导入与Hugging Face模型一键部署 [9] - 凭借差异化的硬件设计以及丰富的软件栈,高通的入局具有合理性,后续将其网络芯片集成进去能打造出具有性能优势的产品 [9]
顺网科技20251029
2025-10-30 09:56
行业与公司 * 纪要涉及的公司为顺网科技(盛网科技)[1] * 行业涉及电竞、云计算(边缘算力云、AI云)、网络广告、游戏(端游、主机游戏)[2][4][8][14] 核心财务表现与业务结构 * 公司2025年上半年营收3.24亿元,同比增长52.59%[2] * 公司前三季度收入规模达15亿元,但同比增长速度有所放缓,累计利润达3.24亿元,同比增长52.59%[3] * 收入下降主要因业务结构优化调整,公司战略重心转向高毛利业务[2][3] * 广告业务基于电竞科技服务,采用CPT模式,毛利率水平较高[2][4] * 增值业务中,加速器、租号陪玩等服务及CDK、游戏道具等产品类业务竞争激烈,毛利率较低,公司已缩减此类低毛利业务[2][4][16] * 低毛利增值业务(如道具类、CDK类)毛利率从两位数降至个位数[16] * 三季度主要收入和利润贡献来自网吧广告和增值业务,ChinaJoy展会业务维持微增趋势[9] 核心业务进展与战略方向 * 公司未来重点发展基于自身流量入口的高毛利广告业务[2][7] * 公司自2019年起构建算力上云基础设施,目前进入平台深化运营阶段[2][6] * 通过虚拟电竞枢纽打造线上线下互联互通平台,为电竞行业提供高性能机器支持,降低从业门槛[2][6] * 边缘算力云及AI云业务已进入深入商业化运营阶段,客户主要为电竞从业者、网吧、电竞酒店等行业客户,个人游戏玩家也是重要用户群体[4][10] * 公司计划推进AI云电脑项目,为个人开发者及AI团队提供模型训练、推理和微调服务[7] * 计划在2026年加速算力建设与平台运营,提升用户运营深度和服务广度[2][4][7][10] 行业趋势与市场机遇 * 电竞行业自疫情后加速恢复,硬件换机频次增加、价格提高,以及新游戏内容推出推动行业发展[8] * 端游市场呈上行趋势,预计2026年持续增长,广告投放需求增加[4][14] * 主机游戏带来增量空间,对云电竞平台内容支撑及新增用户引入有积极影响[4][14] * 公司通过算力上云技术为从业者降低成本压力,促进整个行业景气度提升[8] 竞争优势与差异化 * 公司边缘算力云与阿里云、百度智能云、腾讯云等公有云不在同一赛道,专注于提供电脑级别算力给电竞游戏玩家[11] * 竞争优势在于依托遍布全国的边缘机房,配置高、时延低,优于中心云模式,并能提供高配置显卡(如4080 Super)[11][12] * 公司依托多年在网吧行业积累的大量内容和服务,为用户提供全面优化体验[11] * 在AI领域走竞合路线,为推理和微调等需求提供高性价比消费级显卡[11] * AI推理已开始应用于边缘算力云,未来将拓展至更多场景[13] 其他重要信息 * 电竞酒店和网吧终端数量提升流量基础,对游戏公司广告投放效果产生正向反馈,间接促进广告业务发展[15] * 公司与B站合作的三国百将牌项目由浮云旗下子公司负责,今年合作深度有所提升[16] * 公司计划通过展示可运营算力规模信息来推动市场认知与投资人关注[2][8][7]
高通AI芯片,大猜想
半导体行业观察· 2025-10-30 09:07
高通与Humain AI的战略合作 - 高通与沙特阿拉伯的Humain AI初创公司签署正式协议,合作开发边缘和数据中心的AI技术,Humain成为高通未来AI加速器的首个客户[2][3][5] - 合作范围包括开发推理AI芯片、搭载骁龙和Dragonwing系统级芯片的边缘设备,以及针对这些SoC调整Humain的阿拉伯语大型语言模型[3] - 谅解备忘录要求高通开发并提供最先进的数据中心CPU和AI解决方案,这意味着高通将重返服务器CPU业务[3] 高通AI加速器产品线与技术演进 - 高通AI 100 XPU于2019年发布,2021年上半年发货,2023年11月推出AI 100 Ultra版本,将四块AI 100芯片互连在一个封装中[5][7] - 2024年10月高通开始发售AI 100的低配版AI 80,并推出PCIe卡形式的AI 100 Ultra,其SRAM容量从每芯片126 MB提升至144 MB[7] - 未来路线图包括2026年推出的AI 200 Ultra(采用3纳米工艺,128个AI核心,1,024 MB片上SRAM)和2027年初的AI 250 Ultra(采用2纳米工艺,192个AI核心,1,536 MB片上SRAM)[11][12] - AI 200 Ultra将配备768 GB的LPDDR5主内存,使用PCIe 5.0 x16实现机架内扩展,以太网实现跨机架扩展,功耗为250瓦[11][12] - AI加速器架构基于智能手机CPU中的Hexagon神经网络处理器,在同一核心上集成标量、矢量和张量单元,张量单元拥有8,192个INT8乘法累加器阵列和4,096个FP16乘法累加器阵列[14][15] 性能基准与能效对比 - 加州大学圣地亚哥分校基准测试显示,在GPT-2和Granite 3.2测试中,单个AI 100 Ultra(4个高通芯片)比4个Nvidia A100 GPU的单位功耗少60%[8] - 在部分模型上,相同数量的高通显卡比相同数量的英伟达显卡单位功耗表现更佳,例如在GPT-2模型上,高通AI 100 Ultra的每瓦令牌数为5.7368,而Nvidia A100为2.1685[9] - 计算密度方面,需要1到4个高通加速器机架(假设每5U服务器放16张卡)才能匹配4个或8个Nvidia A100 GPU的性能[10] 市场机遇与财务影响 - 高通已赢得200兆瓦的部署,假设每张AI 200 Ultra卡功耗250瓦,需要80万张卡,总计1,250个机架(每机架512台设备)[19] - 以每张卡4,000美元计算,AI加速器部分价值32亿美元,加上机架等基础设施总价值可能达52亿美元[19] - 在FP4精度下,高通AI 200 Ultra机架计算能力达983 petaflops,每petaflops成本2,604美元,每千瓦每petaflops为16.30美元,相比Nvidia B300 NVL72方案有约35%的每瓦功耗优势[19][20] 高通重返服务器CPU业务 - 高通曾于2017年推出48核Arm服务器CPU"Amberwing" Centriq 2400,但项目于2018年搁置,2021年收购Nuvia获得其"Phoenix"(现Oryon)内核[17] - 与Humain的合作明确高通将再次开发数据中心服务器CPU,未来AI 200和AI 250设备可能在封装中集成服务器级Oryon Arm内核[18] - AI 250将采用近内存计算创新内存架构,提供超过10倍的有效内存带宽和更低功耗[18]
288亿独角兽!复旦女学霸创业3年,被黄仁勋和苏妈同时押注
深思SenseAI· 2025-10-30 09:04
公司概况与市场地位 - 公司是AI推理服务提供商与推理层基础设施平台,定位为让模型运行更快、更便宜、更稳定,把推理变成类似云计算的计量服务 [5] - 成立3年时间,年收入已达2.8亿美元,公司估值达40亿美元,是AI推理赛道增长最快的独角兽 [1] - 目前已服务超过10,000家企业客户,每天处理超10万亿tokens,客户包括Cursor、Notion、Uber、Samsung、Shopify等明星产品 [1][5] 融资情况 - 2025年10月28日,公司宣布完成2.54亿美元C轮融资 [1] - 本轮融资由Lightspeed、Index Ventures和Evantic领投,英伟达、AMD、红杉资本、Databricks等知名机构跟投 [1][5] 创始团队与技术渊源 - 创始人乔琳是PyTorch框架的核心创建者,职业生涯始于IBM研究,后在LinkedIn担任技术主管,在Meta担任AI平台架构关键负责人,领导超300人工程师团队 [3][5] - 创始团队由六位参与过Meta PyTorch项目的资深工程师与一位前谷歌AI专家组成,堪称“梦之队” [6] - 公司核心洞察是“训练是科研的浪漫,推理才是产业的现金流”,创新焦点从“构建”转向“应用” [1][8] 核心产品与服务 - 第一类产品是Serverless推理云,面向开发者提供“即开即用”的API,按token计费,兼容数百个开源与私有模型 [11] - 第二类产品是专属部署方案,针对金融、医疗等高合规行业,提供独立GPU资源和专用网络隔离,按GPU秒计费 [11] - 第三类产品是微调与评测服务,提供从数据治理、训练微调到在线评测的一体化能力,按训练token计费 [12] 技术优势与性能表现 - 自研的Fire Attention推理引擎与Fire Optimizer可在硬件与算法之间自动搜索超过十万种配置组合,使推理速度提升10–40倍、成本下降数十个百分点 [12] - 以客户Cursor为例,在公司的推测解码技术支持下,模型处理代码的速度提升13倍,从“等半天”变成“几秒钟” [14] - 技术底座建立在深度GPU优化与架构级创新上,把延迟、吞吐、成本这些工程参数转化成企业可以签约的服务条款 [9][12] 市场竞争与差异化 - 直接竞争对手包括Together AI、Replicate、Groq、Baseten Labs等初创公司,以及AWS、Google Cloud、Azure等云巨头 [15] - 差异化优势不是“最快”或“最便宜”,而是“最优化”和“最易用”,支持数百个开源模型,跨多云多区域运行 [16] - 护城河是“客户数据+定制化能力”的飞轮,每个客户的微调数据都在优化系统,越用越好 [16] 行业趋势与未来战略 - 生成式AI带来的范式转移让创新焦点从“构建”转向“应用”,推理的市场规模将远超训练 [8] - 公司预测2025年将成为“Agent年”和“开源模型年”,各行业将涌现大量解决垂直问题的AI智能体 [20] - 未来核心战略是强化Fire Optimizer系统,特别强化在推理质量上的能力,通过个性化定制提升模型效果 [20] - 终极愿景是让每个开发者都能定制模型、注入数据,全面提升推理能力,让AI控制权回到构建者手中 [21][22]
高通上“芯”,A股“伙伴”振奋
上海证券报· 2025-10-29 23:26
高通新产品发布 - 公司于10月27日推出面向数据中心的下一代AI推理优化解决方案,包括基于高通AI200和AI250芯片的加速卡及整机柜产品 [1] - 新产品预计于2026年和2027年分别实现商用化 [1] - 高通AI200专为机架级AI推理打造,旨在降低总体拥有成本,每张加速卡支持高达768 GB的LPDDR内存 [3] - 高通AI250采用创新性近存计算架构,使其有效内存带宽提升超过10倍,同时功耗大幅降低 [3] 业务战略转型 - 此次推出机架级解决方案标志着公司业务正从销售芯片拓展至提供数据中心系统 [1] - 此举与英伟达和AMD的发展路径一致,将使公司在数据中心市场与英伟达和AMD展开竞争 [1] - 公司高级副总裁表示,新解决方案将助力客户以前所未有的总体拥有成本部署生成式AI [4] - 公司已与沙特阿拉伯公共投资基金旗下的AI公司HUMAIN达成合作,将于2026年起部署总容量达200兆瓦的机架解决方案 [4] 产品技术规格 - 两款机架级解决方案均配备直液冷散热系统,整机柜的功率消耗控制在160千瓦 [4] - 公司提供丰富的软件栈与开放的生态系统,便于开发者集成、管理和扩展已训练好的AI模型 [4] - 新产品采用LPDDR内存方案,而非传统的HBM方案 [6] 潜在受益的A股公司 - 佰维存储的LPDDR产品涵盖LPDDR2至LPDDR5/5X各类标准,容量覆盖8Gb至128Gb,且已进入高通等主流CPU、SoC及系统平台厂商的合格供应商清单 [6] - 江波龙LPDDR产品容量覆盖4Gb至64Gb,其ePOP4X产品也已通过高通等主流穿戴AISoC厂商的认证 [6] - 环旭电子正同高通等知名平台供货商合作SiP技术蓝图规划及开发 [7] - 顺络电子曾率先研发适合高通8750平台的物料并获得高通测试认证,为国内首发 [7] - 美格智能曾推出基于高通处理器的高算力AI模组,适用于机器人、智慧工业等领域 [7]
高通新发AI推理芯片,瞄准每年3000亿美元市场
36氪· 2025-10-29 19:12
新产品发布 - 公司发布AI200及AI250两款AI数据中心推理芯片,计划分别于2026年和2027年投入商用 [2] - 新产品基于高通NPU技术,AI200解决方案支持每张卡768GB LPDDR内存,AI250将采用创新内存架构以提升带宽并降低功耗 [4] - 两款芯片的机架级解决方案均采用直接液冷散热,单机架功耗为160kW,并采用PCIe和以太网进行扩展 [4] 市场反应与公司动态 - 新品发布当天公司股价盘中一度飙升22%至205美元,创2024年6月下旬以来最高,收盘报188美元,涨幅11.09% [2] - 多家投行包括摩根大通、美银证券更新评级,维持买入,最高目标价看至200美元 [2] - 公司宣布与沙特阿拉伯AI企业HUMAIN合作,共同推进新芯片的落地应用 [2][11] 战略布局与市场竞争 - 公司致力于制定按年推进的数据中心路线图,专注于领先的AI推理性能、能源效率及总拥有成本 [3] - AI推理市场前景广阔,巴克莱预测到2026年AI推理需求将占通用AI总计算需求的70%以上,达到训练需求的4.5倍,可能需近3000亿美元芯片资本支出 [6] - 公司面临激烈竞争,英伟达、谷歌、华为等厂商均已公布计划在2026年左右推出AI推理芯片新品 [6][7] 财务贡献与业务历史 - 公司AI推理业务目前营收贡献几乎可忽略不计,2025财年第三季度QCT半导体业务营收为89.93亿美元,主要来自手机、汽车和物联网芯片 [9] - 公司过往在数据中心市场成效甚微,2018年服务器部门曾裁员50%,被市场解读为放弃该业务 [9] - 公司总裁兼CEO表示,正与一家超大规模云端服务商深入洽谈,数据中心相关营收最快于2028财年开始贡献 [13] 相关业务拓展 - 公司于2025年5月计划采用英伟达技术定制生产数据中心CPU,以搭配英伟达GPU使用 [11] - 公司于2025年6月宣布以24亿美元收购半导体IP企业Alphawave,以增强数据中心市场竞争力,收购预计2026年第一季度完成 [11]
高通挑战英伟达
21世纪经济报道· 2025-10-29 11:56
公司战略与产品发布 - 公司宣布推出面向数据中心的下一代AI推理优化解决方案,包括基于Qualcomm AI200和AI250芯片的加速卡及机架级解决方案 [1] - AI200和AI250预计将分别于2026年和2027年实现商用,公司计划每年更新一次数据中心路线图,专注提升AI推理性能、能效和总拥有成本 [1] - 两款产品采用直接液冷散热,整机架级功耗为160千瓦,并采用LPDDR内存方案以降低成本,这与公司强调的低总拥有成本逻辑一致 [8] 市场反应与财务表现 - 产品发布消息使公司股价在10月27日一度猛涨20%,最终以11.09%涨幅收盘,但次日股价回落3.54%至181.03美元/股 [1] - 数据中心业务目前尚未在财报层面体现明显增量,公司第三季度芯片业务收入主要仍由手机业务主导,占比达70.37% [14] - 公司手机业务收入同比增速为7%,低于芯片部门整体11%的增速,也远低于物联网业务24%和汽车业务21%的增速 [14] 客户合作与市场进入 - 公司官宣首位客户为沙特阿拉伯国家级AI公司HUMAIN,双方计划自2026年起部署200兆瓦的Qualcomm AI200和AI250机架式解决方案 [9][11] - 公司总裁兼首席执行官指出,云服务提供商构建专用推理集群、市场向定制Arm兼容CPU转变等趋势为公司创造了市场切入点 [8] - 公司在7月业绩会上透露,正与一家领先的超大规模企业进行深入洽谈,若成功预计将在2028财年开始产生收入 [9] 历史背景与能力构建 - 此次并非公司首次进军数据中心市场,2017年其曾推出基于Arm架构的服务器处理器Centriq 2400,但最终未能成功 [3][16] - 相比上一次,公司通过收并购持续强化能力,例如2021年以14亿美元收购专注于数据中心CPU的Nuvia公司,并正在推进对Alphawave IP Group的收购 [16][17] - 外部市场公认AI推理市场空间将高于AI训练市场,众多玩家正试图以不同于英伟达GPU的差异化打法挖掘增量空间 [17] 产品技术细节 - Qualcomm AI200是专用机架级AI推理解决方案,旨在为大语言模型和多模态模型推理提供低总拥有成本,每张加速卡支持768 GB LPDDR内存 [5] - Qualcomm AI250解决方案首发基于近存计算的内存架构,实现超过10倍的有效内存带宽和更低功耗,支持解耦式AI推理 [5] - 公司官网显示,其数据中心产品/服务已形成包括Cloud AI 100 Ultra、AI 200、AI 250、人工智能推理套件和服务器CPU在内的五大产品矩阵 [11]
高通挑战英伟达
21世纪经济报道· 2025-10-29 11:52
高通进军数据中心AI推理市场 - 公司于10月27日宣布推出面向数据中心的下一代AI推理优化解决方案,包括基于Qualcomm AI200和AI250芯片的加速卡及机架级解决方案 [1] - AI200和AI250预计将分别于2026年和2027年实现商用,公司计划每年更新一次数据中心路线图,专注提升AI推理性能、能效和总拥有成本(TCO) [1] - 受此消息影响,10月27日公司股价一度猛拉20%涨幅,最终以11.09%涨幅收盘,但次日回落3.54%报181.03美元/股 [1] 产品技术规格与差异化 - Qualcomm AI200是专用机架级AI推理解决方案,针对大语言模型和多模态模型推理,每张加速卡支持768GB LPDDR内存,旨在提供低TCO和优化性能 [4] - Qualcomm AI250首发基于近存计算的内存架构,实现超过10倍的有效内存带宽和更低功耗,支持解耦式AI推理并高效利用硬件资源 [4] - 两款机架解决方案均采用直接液冷散热以提高效率,支持PCIe纵向扩展和以太网横向扩展,整机架级功耗为160千瓦 [7] - 不同于主流AI加速芯片采用HBM方案,公司采用LPDDR内存以降低成本,与强调更低TCO的逻辑一致 [8] 市场战略与客户进展 - 公司总裁兼首席执行官Cristiano Amon在7月财报会上预告数据中心市场扩张是新增长机遇,基于CPU和NPU沉淀,是多元化战略的合理延伸 [8] - 公司宣布与沙特阿拉伯国家级AI公司HUMAIN合作,计划自2026年起部署200兆瓦的Qualcomm AI200和AI250机架式解决方案,打造全球首个边缘到云端混合AI [9][10] - 公司官网已展示数据中心产品矩阵,包括Qualcomm Cloud AI 100 Ultra、AI 200、AI 250、人工智能推理套件和服务器CPU五大类 [10][15] 业务背景与历史尝试 - 公司曾在2017年推出基于Arm架构的数据中心CPU产品Centriq 2400,但因服务器市场以英特尔x86为主且Arm生态不成熟而折戟 [3][18] - 2021年3月公司以14亿美元完成对专注于数据中心CPU的Nuvia公司的收购,并推进收购Alphawave以补充高速有线连接和计算技术 [18][19] - 第三季度财报显示,手机业务收入63.28亿美元占QCT部门70.37%,同比增速7%低于QCT整体11%的增速,更远低于IoT的24%和汽车业务的21%增速 [16] 行业竞争与生态挑战 - AI推理市场空间被公认高于AI训练市场,但面临云服务厂商自研ASIC芯片、新兴AI芯片公司等多样化竞争 [19] - 公司虽推出AI推理芯片与英伟达竞争,但5月仍被列入英伟达NVIDIA NVLink Fusion合作伙伴名单,体现多条腿走路的生态扩展策略 [20] - AI芯片落地关键依赖软件和生态能力,英伟达凭借近20年搭建的CUDA工具链形成壁垒,但AI推理市场可接纳定制化细分需求,为后来者留有机会 [20]
高通新款云端芯片公开!借推理抢英伟达蛋糕,市值一夜暴涨197.4亿美元
量子位· 2025-10-28 22:24
公司战略转型 - 高通宣布推出AI200和AI250两款AI芯片,正式进军数据中心市场[1][2] - 公司从端侧/轻量级推理转向大型数据中心市场,撕掉端侧标签[5][6] - 此次转型基于公司在手机芯片领域的技术积累,核心计算单元源自Hexagon神经处理单元[17] 产品技术规格 - AI200预计2026年商用,支持作为独立芯片或整机架服务器系统提供,每张加速卡支持768GB LPDDR内存[11][12] - AI250计划2027年推出,采用近存计算的全新内存架构,带来超过10倍的有效内存带宽提升并显著降低功耗[13] - 两种机架方案均支持直液冷散热、PCIe与以太网扩展、机密计算等企业级功能,面向160kW级别高密度机架场景[13] 市场竞争格局 - 消息公布后高通股价一度飙升超20%,创自2019年以来最大单日涨幅[3] - 目前数据中心市场英伟达占据90%以上份额,但巨头们都在寻找替代方案[21] - 麦肯锡预测到2030年全球数据中心投资将达到6.7万亿美元[20] 市场进展与规划 - 高通已获得沙特AI初创公司Humain订单,计划从2026年起部署基于AI200/AI250的机架级算力系统,总功率达200兆瓦[23] - 公司未来将以每年一代的节奏推进数据中心产品路线图,持续提升AI推理性能与能效表现[14] - 同时推进面向超大规模推理的端到端软件栈,支持主流框架与工具链以降低客户总拥有成本[13]