推理芯片
搜索文档
微软投资AI芯片公司,挑战英伟达
半导体行业观察· 2026-02-14 09:37
文章核心观点 - 人工智能芯片行业正从以训练为中心转向以推理为中心,推理阶段的效率、成本和延迟成为新的竞争焦点 [2][3] - 以d-Matrix为代表的初创公司正通过设计专用推理芯片,挑战英伟达在AI芯片市场的统治地位,其核心优势在于通过架构创新实现更低的延迟和更高的能效 [2][5][7] 行业趋势:从训练到推理的转变 - 人工智能工作负载的重心正从模型训练转向模型推理,推理关乎效率,而训练关乎表现 [2][3] - 推理不仅是一个计算问题,更是一个计算与内存的综合问题,内存访问速度是影响延迟的关键因素 [3][4] - 当前大部分基础设施针对训练优化,优先峰值性能,而推理(尤其是交互式AI)更看重平均响应速度和低延迟 [4] d-Matrix的技术与产品策略 - 公司核心理念是制造能提供更快、更便宜、更高效率推理的芯片,旨在改变AI竞争格局 [2] - 其解决方案的核心架构创新在于将计算和内存紧密融合,缩短数据移动距离,并采用模块化的芯片组设计,以优化推理数据流、降低延迟并提高每瓦每秒令牌数 [5] - 公司声称其芯片在运行推理操作时,成本比GPU降低约90%,且能效(每瓦浮点运算次数)显著更高 [5] - 公司已开始小批量出货(几百颗),预计很快达到数千颗,并计划在今年实现数百万颗的大规模量产 [6] 市场竞争格局与挑战者涌现 - 英伟达目前是AI芯片市场无可争议的冠军,市值达4.5万亿美元,其GPU主导训练和推理市场 [7] - 但市场对替代方案的兴趣日益增长,客户开始寻求对冲或获取更多芯片的途径,投资者和初创公司尤其看到了推理领域的市场机会 [7][8] - 近期行业出现多笔重大交易与融资,显示竞争加剧:Groq被收购(交易额据报达200亿美元)、Cerebras与OpenAI签署价值100亿美元的芯片供应协议、Anthropic签署非英伟达芯片协议、Etched融资约5亿美元、d-Matrix于去年11月融资2.75亿美元 [8][9] - 中国开源推理模型DeepSeek的出现也助推了市场对快速推理芯片的兴趣 [9] - 尽管英伟达实力强大并承诺每年更新芯片,但行业开始出现裂痕,专用推理硬件被视为行业发展到一定阶段的必然产物 [10] 其他主要参与者的动态 - OpenAI已开始使用Cerebras的巨型芯片运行其GPT-5.3-Codex-Spark编码模型的推理,据报道速度比其他架构提升15到20倍 [5] - 大型科技公司也在开发自有芯片:微软发布了第二代AI芯片Maia,并支持d-Matrix;亚马逊和谷歌也拥有自研芯片(如Trainium、TPU),但它们仍大量使用英伟达GPU [9][10] - 行业观点认为,未来市场可能不会只有一个赢家,专用硬件将随着AI应用的工程化发展而兴起 [7][10]
AI需求仍强却带不动股价!英伟达四季度至今仅涨1%,市场观望情绪转浓
华尔街见闻· 2026-02-13 22:23
文章核心观点 - AI芯片行业竞争格局正在演变,英伟达的垄断地位面临挑战,市场正从“押注单一龙头”转向“重新定价竞争风险”[3] - 尽管英伟达仍是市场领导者且地位稳固,但其估值溢价正被市场重新评估,股价表现趋于冷却[1][6] 竞争格局演变 - 英伟达首席执行官黄仁勋以约200亿美元收购推理硬件初创公司Groq的技术授权并招募其大部分芯片团队,印证了其他公司在特定领域的竞争力[3] - Cerebras与OpenAI签署了100亿美元的快速推理芯片供应协议,Anthropic也与多家非英伟达芯片供应商达成合作[3] - 自Groq交易以来,市场对AI芯片格局的认知被重塑,潜在投资者对初创企业的兴趣明显上升,例如SambaNova放弃了低价出售计划转而寻求新一轮融资[3] 推理芯片市场成为焦点 - 推理芯片市场被视为挑战英伟达主导地位的突破口,越来越多的初创企业和投资者正将目光投向该领域[4] - 交易公司Jump共同领投了推理芯片初创公司Positron的2.3亿美元融资,并已成为其客户[4] - 初创企业正试图通过探索不同类型的内存架构,在推理场景下实现比英伟达更快的响应速度[4] - 自去年初DeepSeek亮相以来,市场对快速推理芯片的兴趣显著升温,例如D-Matrix公司已于去年11月完成2.75亿美元融资[4] 科技巨头与初创企业布局 - 大型科技公司正竞相开发自有AI芯片以减少对英伟达的依赖,例如OpenAI发布运行在Cerebras芯片上的模型,微软推出第二代自研AI芯片Maia[6] - 初创企业亦积极布局,推理芯片公司Etched上月融资约5亿美元,AI模型初创公司Simile获1亿美元融资[6] - 尽管巨头加速自研,亚马逊、谷歌、微软、OpenAI等仍大量采购英伟达GPU,英伟达作为市场领导者的地位依然稳固[6] 英伟达的应对与市场动态 - 英伟达拥有多种产品线并承诺每年对芯片进行一次完整的重新设计,与Groq的交易为其提供了进一步扩张的机会[7] - 英伟达首席执行官黄仁勋未承诺推出专门用于推理的新芯片,但表示“也许在某个地方我们可能会创造一些独特的东西”[7] - 市场预计英伟达将在3月的旗舰会议上宣布措施以应对快速推理芯片的需求[7] - 尽管历史上挑战者大多未能成功与英伟达大规模竞争,但市场正开始出现裂痕,行业增长将催生专用硬件[7]
旋极信息:公司目前未在脑机方面进行布局
证券日报网· 2026-01-29 09:52
公司业务布局澄清 - 公司明确表示目前未在脑机接口方面进行业务布局 [1] 公司核心技术能力 - 公司在推理芯片及算力中心领域具备投资、建设、运营的技术能力 [1]
旋极信息(300324.SZ):目前未在脑机方面进行布局
格隆汇· 2026-01-28 21:39
公司业务布局澄清 - 公司明确表示目前未在脑机接口领域进行业务布局 [1] 公司核心技术能力 - 公司在推理芯片领域具备投资、建设和运营的技术能力 [1] - 公司在算力中心领域具备投资、建设和运营的技术能力 [1]
英伟达,筑起新高墙
半导体行业观察· 2026-01-13 09:34
文章核心观点 - 英伟达通过一系列战略性交易(如与Groq达成协议、收购Bright Computing、Run.ai和SchedMD),系统性地构建了超越硬件(GPU)的生态壁垒,其战略重心正从统治训练算力转向掌控推理效率和整个AI计算系统的非硬件控制权,旨在通过整合集群调度、工作负载定义和企业级支持服务,大幅提高客户的迁移成本,从而巩固其市场主导地位 [1][2][4][7][23][24] AI芯片竞争格局与英伟达的战略焦虑 - AI芯片竞争焦点正从“训练为王”转向“推理决胜”,在推理端,AMD、定制ASIC及云厂商自研芯片正快速逼近,成本和供应链多元化成为客户现实诉求 [2] - 英伟达的焦虑源于AI产业重心从堆算力(FLOPS)转向高效、确定性地交付推理结果,其统治性的GPU在推理端的话语权可能被系统层逐渐侵蚀 [4][7] - 英伟达采取“收购式招聘”等操作,在不触碰监管红线的前提下,将潜在威胁(如Groq)纳入自身体系 [1] Groq的技术价值与英伟达的交易动机 - Groq的核心技术是自研的LPU架构,采用静态调度和确定性设计,使用SRAM而非HBM,主打极致低延迟和性能确定性,其创始人Jonathan Ross是谷歌第一代TPU的首席架构师 [5] - 2024年,Groq展示其系统运行Llama 2-70B模型时,生成速度超过每秒300个Token,远超主流GPU系统,吸引了金融、军事等对延迟敏感的垂直行业用户 [6] - 英伟达与Groq的交易并非为了补一块芯片,而是为了获取对执行路径的强约束、对延迟的可预测性以及编译器主导的算力使用方式等系统能力 [7] - 此次交易几乎具备收购的全部要素:技术被许可,团队被吸纳,关键人物离场,Groq最具决定性的资产已转移 [1] 英伟达构建集群控制体系的战略步骤 - **收购Bright Computing**:2022年1月,英伟达收购了集群管理工具Bright Computing(后更名为Base Command Manager),将其纳入AI Enterprise软件堆栈,按每个GPU每年4500美元的费用出售“系统能力”,把集群管理变为商业资产 [10][11] - **收购Run.ai**:2024年,英伟达收购Run.ai,其核心价值在于实现GPU资源的抽象化管理(多租户、弹性调度、GPU虚拟化),防止云厂商通过调度层稀释CUDA生态优势 [13] - **收购SchedMD**:2025年12月,英伟达收购了Slurm工作负载管理器背后的核心团队和技术支持公司SchedMD,Slurm在过去十年中约占Top500超级计算机60%的份额,是HPC和AI领域的事实标准 [17][18] - **整合与打包**:2024年10月,英伟达停止单独销售Bright Cluster Manager,仅将其作为AI Enterprise Stack的一部分提供,旨在将所有系统组件打包成不可分割的整体 [21] 英伟达构建的“生态城墙”三层结构 - **第一层:集群资源调度权**:通过Mellanox的网络互联、Bright Computing的集群管理、SchedMD的工作负载调度,控制算力连接、分配和执行的完整链条 [23] - **第二层:工作负载执行路径定义权**:通过Run.ai的GPU虚拟化、Mission Control的自动化部署和健康检查、Slurm的作业调度,共同定义任务如何运行,使迁移成本高企 [23] - **第三层:企业级支持与系统复杂度掌控权**:通过AI Enterprise许可证模式,将工具打包成“系统集成能力”商业服务,客户购买的是英伟达的优化经验与最佳实践 [24] - 这三层叠加使得客户理论上可选择其他硬件,但实践中迁移成本难以承受,英伟达的商业模式已从卖芯片质变为卖生态,GPU成为生态入口 [23][24]
新基讯亮相2026 CES:让消费级AI走向无处不在
半导体行业观察· 2026-01-08 10:13
AI芯片行业发展趋势 - AI发展分为上下半场:上半场是训练,由GPU主导;下半场是推理,定制化ASIC芯片将成为主导[1] - 消费级AI市场需求已从追求“极致算力”转向对“性价比、能耗比、场景适配”综合能力的考量[1] 无线通信芯片公司的优势 - 无线通信芯片公司具备“高速连接、存算协同、极低延迟、极低功耗、极低成本的内生DNA”,在开发消费级AI芯片上具有独特优势[3] - 大型人工智能公司如Meta、Google、ByteDance、OpenAI等,正寻求与博通、高通、联发科等无线通信芯片公司合作定制AI芯片[3] 新基讯科技有限公司的定位与能力 - 新基讯是一家依托自主研发、具备端侧AI能力的5G通信芯片公司[1] - 公司攻克端侧交互痛点,满足AI“更便宜、更可靠、易部署、随时随处可用”的核心要求[1] - 新基讯是全球极少数实现5G modem量产、并能整合云端与端侧AI生态的高科技企业[3] - 公司发挥强大的通信ASIC芯片设计能力,助力消费级AI从“云端依赖”走向“终端原生”,旨在定义推理时代的新标准[3] 消费级AI的应用落地与场景 - 聚焦家庭、办公、移动出行等高频消费场景,借助5G芯片的连接能力与低资源占用优势,实现全域无缝联动[5] - 应用范围涵盖从AIOT的轻量化协同,到智能穿戴的低功耗健康监测,再到智能家居的即时响应,目标是实现全能化AI助手[5] - 大模型应用爆发将带来推理芯片需求的更大增长,目标是让消费级AI“用得起、用得上、离不开”,推动AI全民化落地[5] 新基讯的核心技术方案 - 自主研发的5G芯片提供低时延、广覆盖连接,搭配本地化推理框架与云端大模型接入能力[7] - 采用小容量专用存储器,通过模型蒸馏与分层存储技术,仅保留核心推理参数,发挥OpenCPU优势,满足端侧独立高效算力需求,实现毫秒级本地推理[7] - 定制化芯片通过硬件级优化大幅提升能效比,解决消费级用户对“体积、功耗、安全”的核心诉求,推理芯片是AI从技术概念走向实际应用的关键支撑[8] 生态构建与商业模式 - AI与5G互为生态,通过生态协同加速推理落地[10] - 极简推理型AI芯片支持多语言轻量化模型适配,结合本地化合规体系与定制安全及隐私保障,构建“中国技术 + 全球服务”的出海模式[10] - 开放软硬件适配接口,旨在实现“5G + 端侧推理”的消费级AI生态[10] - 搭载新基讯AI解决方案的首款产品——AI守护终端将在今年全球上市[10]
专访云天励飞董事长陈宁:打造“中国版TPU”
21世纪经济报道· 2025-12-31 06:49
公司战略与定位 - 云天励飞已从AI解决方案提供商转向更具长期价值的AI推理芯片赛道[1] - 公司战略方向始终未变,但市场策略与时俱进,经历了三个发展周期,与全球及中国AI行业发展阶段同步[3] - 在算力驱动阶段,公司并未盲目追随GPU路线或贸然切入训练芯片赛道,而是坚持立足自身技术积累和产业定位的发展道路[4] 行业周期与趋势 - 全球人工智能行业经历了三个周期:2012-2020年的智能感知时代、2020-2024年的大模型时代、以及当前开启的算力驱动阶段[3] - 训练时代由英伟达主导,但在推理时代,所有参与者站在新的起跑线上,成本、效率和系统能力成为建立优势的关键[1] - 推理已进入算力中心舞台,未来将构建更繁荣的推理芯片和应用生态,硬件架构可能呈现更多异构组合[1] - AI新时代帷幕已拉开,格局未定,芯片厂商正围绕算力、架构与成本进行长期竞赛并不断加速[2] 市场机会与规模 - 中国在AI发展上更多是应用驱动,强项在于将技术快速转化为规模化、可落地的应用[5] - 中国策略重点在于鼓励大规模市场化应用,加速AI在各行各业渗透,而高效运行的推理芯片是亟待补齐的关键环节[6] - 训练芯片市场规模远无法与推理芯片相比,到2030年,全球训练芯片市场规模可能达约1万亿美元,而推理芯片市场至少将达4万亿美元甚至更高[7] - 英伟达收购专注于AI推理芯片的Groq,强化了推理基础设施加速演进的行业信号[8] 发展挑战 - 推理芯片研发和市场推进的挑战包括硬件本身的复杂性,芯片从设计、流片到量产是高投入、长周期的过程[9] - 软件生态构建是另一大挑战,需投入大量资源打造完整软件栈以充分发挥硬件性能[10] - AI技术快速演进,大模型架构、计算范式等持续变化,而芯片设计和制造周期长达一到两年,要求芯片架构必须具备足够的前瞻性与灵活性[10]
云天励飞董事长陈宁:AI推理时代已至 推理芯片崛起将是中国科技复兴巨大机遇
每日经济新闻· 2025-12-29 20:34
文章核心观点 - 人工智能产业正从以训练为主的阶段,进入以推理为主的“代理式人工智能”时代,这引发了算力范式的根本性转变 [1][2] - 推理芯片赛道的崛起打破了英伟达在训练时代的垄断格局,为中国AI芯片产业提供了实现“超车”的历史性机遇 [1][3] - 面对推理需求的爆炸性增长和成本挑战,需要通过新的芯片架构和工艺创新来降低总体拥有成本,以实现AI的规模化和产业化 [4][5] AI产业发展阶段 - **第一阶段(2012-2020年)**:“智能感知”时代,以小模型驱动特定场景解决方案为主,市场碎片化,难以规模化复制 [2] - **第二阶段(2020-2025年)**:AIGC时代,大模型展现强大内容生成能力,但行业仍在寻找盈利闭环 [2] - **第三阶段(2025年起)**:“代理式人工智能”时代,智能体将大模型、操作系统与硬件深度融合,能独立完成复杂任务,引发真正产业革命,其核心特征是应用爆发,所需算力从训练为主转向推理为主 [2] 推理芯片成为关键赛道 - 推理追求大规模商业化,必须讲求市场经济和极高的性价比,这与训练追求极致性能不同 [2] - 市场规律证明了推理芯片赛道的不可替代性,谷歌在TPU战略中明确“训推分离”,博通为Meta、OpenAI定制推理芯片,都证明了该赛道的崛起 [3] - 在训练赛道上,中国企业因先进制程受限和CUDA生态壁垒,追赶英伟达差距较大,但在全球刚起步的推理芯片赛道上,游戏规则不同,为中国提供了“超车”机遇 [3] - 推理更接近应用场景,需要提供高性价比产品,这正是中国产业所擅长的,其崛起将是中国科技复兴的巨大机遇 [3] 推理需求与成本挑战 - 以豆包大模型为例,其日均Token处理量已达50万亿且增速惊人 [5] - 即便Token处理量以50万亿为基准不再增长,面向大规模在线推理的资本开支与运营开支也已非常可观 [5] - 若Token规模短期继续上行,明年上半年可能触及100万亿,在单位能效无显著改善的情况下,电力与散热等基础设施压力可能出现“千倍级”跃迁 [5] - 为支撑AI规模化、产业化,需要在较短周期内把“百万Token”的推理综合成本降低到“一分钱”级别,这需要通过架构革命和工艺创新实现 [5] 新芯片架构解决方案 - 传统GPGPU架构面临瓶颈,因为推理任务中Prefill和Decode两个阶段对算力和带宽的需求不同 [4] - 云天励飞提出了新的GPNPU芯片架构,旨在融合三大核心能力 [4] - 三大核心能力包括:1) 顶层结合GPGPU的SIMT编程范式,具有通用灵活的调度架构,以便利兼容CUDA生态;2) 结合指令集微架构设计能力,优化GPGPU中的矩阵类计算硬件;3) 基于国产工艺和全国产产业链融合先进封装技术,打破内存瓶颈,降低成本 [4] - GPNPU的目标是在计算算力、存储带宽、存储容量三者间实现更优配比,满足未来多元化异构推理算力需求,并通过提升硬件利用率、实现高能效低功耗等技术,全方位降低用户的总体拥有成本 [4]
云天励飞董事长陈宁:AI推理时代已至 推理芯片崛起将是中国科技复兴巨大机遇
每日经济新闻· 2025-12-29 20:33
人工智能产业发展阶段 - 人工智能产业发展可划分为三个阶段:2012至2020年为“智能感知”时代,以小模型驱动特定场景解决方案为主,市场碎片化[4];2020至2025年为AIGC时代,大模型展现强大内容生成能力,行业寻找盈利闭环[4];2025年进入第三个阶段“代理式人工智能(Agentic AI)时代”,其核心特征是大模型、操作系统与硬件深度融合的智能体(Agent)引发应用爆发[4] 算力范式革命与产业机遇 - 2025年被视为AI应用爆发元年,应用爆发背后是百倍增长的推理算力需求与高昂成本之间的矛盾[1] - 算力范式正从以训练为主转向以推理为主,这是根本性转折,训练追求极致性能,而推理大规模商业化必须追求极高的性价比[5] - 推理芯片赛道的崛起打破了英伟达凭借CUDA生态和GPGPU在训练时代建立的垄断格局,谷歌TPU战略明确“训推分离”,博通为Meta、OpenAI定制推理芯片,证明了该赛道的独立性与巨大潜力[6] - 推理芯片是中国实现“超车”的关键机遇,全球刚刚起步,游戏规则不同,中国在应用、数据、能源、系统集成方面有优势,更擅长为用户提供高性价比产品[3][6] 推理芯片的技术挑战与架构创新 - 推理任务的计算范式发生根本变化,尤其是Prefill(预填充)和Decode(解码)两个阶段对算力和带宽需求不同,传统GPGPU架构面临瓶颈[7] - 云天励飞提出了新的GPNPU芯片架构,旨在融合三大核心能力:顶层结合GPGPU的SIMT编程范式以兼容CUDA生态;结合指令集微架构设计优化矩阵计算硬件;基于国产工艺和先进封装技术打破内存瓶颈并降低成本[7] - GPNPU目标是在计算算力、存储带宽、存储容量三者间实现更优配比,通过提升单位硅芯片面积的计算性能、降低模型迁移成本、提升硬件利用率以及实现高能效低功耗,全方位降低用户的总体拥有成本[7] 推理需求的规模与成本目标 - 以豆包大模型为例,其日均Token处理量已达50万亿且增速惊人,即便以此为基础不再增长,大规模在线推理的资本与运营开支也非常可观[8] - 若Token规模短期继续上行,明年上半年可能触及100万亿,在单位能效无显著改善的情况下,电力与散热等基础设施压力可能出现“千倍级”跃迁[8] - 为支撑AI规模化、产业化,需在较短周期内把“百万Token”的推理综合成本降低到“一分钱”级别,这需要通过架构革命和工艺创新实现[8]
云天励飞董事长陈宁:打造“中国版TPU”
21世纪经济报道· 2025-12-27 23:15
公司战略与定位 - 云天励飞已从AI解决方案提供商转向更具长期价值的AI推理芯片赛道[4] - 公司战略方向始终未变,但市场策略与时俱进,经历了三个发展周期,分别对应全球AI行业的智能感知时代、大模型时代和算力驱动阶段[7] - 公司并未盲目追随GPU路线或切入训练芯片赛道,而是立足自身技术积累和产业定位,坚持符合自身节奏的发展道路[8] - 公司通过端到端的应用闭环来验证芯片的实际价值,构建了覆盖应用、算法与芯片的全栈能力[6] - 公司营收结构变化与AI行业发展阶段匹配,早期以行业解决方案为主,大模型阶段出现标品和服务,未来推理算力市场爆发将带动推理芯片出货量增长拐点[18][19] 行业趋势与市场判断 - AI推理芯片时代正在形成市场共识,推理已进入算力的中心舞台,未来AI场上将迎来更繁荣的推理芯片和应用生态[4][5] - 到2030年,全球训练芯片市场规模可能达到约1万亿美元,而推理芯片市场至少将达到4万亿美元,甚至更高[12] - 2025年将是重大转折点,训练与推理开始真正分离,推理走向专业化、高效化和场景化,形成独立的技术路径和产品体系[13] - AI推理的普及正在开启一个全新时代,AI正从实验室技术转变为嵌入生活和产业环节的基础设施,用户行为在2025年真正成型[13] - 中国AI发展模式是应用驱动,强调技术落地到产业场景,国家政策推动到2027年新一代智能终端、智能体等应用普及率超70%,到2030年超90%[9] - 中国的策略是在大模型基本追平后,重点鼓励大规模市场化应用,加速AI在各行各业渗透,而高效运行的推理芯片是亟需补齐的关键环节[10] - 半导体市场的并购活动将越来越多,原因是AI应用和AI推理两大生态快速崛起催生大量新机会[25] 技术路径与产品进展 - 公司最新提出GPNPU架构,可理解为中国版TPU,相较于GPGPU,在推理效率与成本控制上能够实现数个数量级的优化[14] - GPNPU架构融合了三方面核心优势:借鉴GPU的可编程性与生态兼容性、继承NPU在推理任务中的高能效优势、深度融合存算一体技术[14] - 存算一体技术是中国AI芯片实现差异化突破的重要机遇,是在先进制程工艺受限条件下构建自主可控技术体系的关键路径[14] - 基于GPNPU架构的Nova500芯片预计将在明年流片,目标是在推理赛道上性能对标全球头部企业,同时保持价格优势[14] - 芯片设计是在性能、功耗、面积与成本之间不断权衡与优化的过程,团队拥有近20年的芯片架构设计经验,长期坚持“算法芯片化”理念[14] - 推理芯片研发面临硬件复杂性、软件生态构建以及AI技术快速演进等多方面挑战[23][24] 客户与市场机会 - 推理芯片的终极目标客户是互联网大厂,其每年的采购额达上千亿,成为其第三、第四供应商意味着几十亿、上百亿的订单规模[17] - 当前芯片订单需求最明确的来自互联网头部大厂,第二梯队包括三大通信运营商及部分中大型互联网企业,第三类是AI领域的创业公司[15] - 互联网大厂通常会采用多家供应商策略,一方面是保障供应链安全,另一方面是产品线需求不同[16] - 中国在训练芯片领域与国际存在差距,但真正的机会和主战场在推理芯片赛道,这里市场空间更大,更契合中国应用驱动的发展优势[12] 区域产业环境 - 广东省对集成电路产业高度重视,明确提出应用场景开放驱动AI与集成电路产业发展的战略思路,这在全国具有前瞻性[26] - 粤港澳大湾区被英伟达CEO称为“全球唯一一个AI与机电一体化深度融合的区域”,其核心竞争力是AI原生硬件的策源地[26] - 依托庞大的终端市场,广东已形成涵盖“端、边、云”等多元场景的完整应用生态,以实际应用为牵引,拉动芯片的强劲需求[27] - 深圳是AI产品经理的摇篮,能敏锐捕捉真实需求并做出务实、可落地的AI硬件产品,因此在AI硬件新阶段持续领跑[28] - 深圳的产业政策聚焦,早在五六年前就明确提出要发展NPU芯片产业,长期稳定的政策支持使企业能坚持深耕技术研发[27]