Workflow
Feynman架构GPU
icon
搜索文档
GTC 2026|黄仁勋五层蛋糕重构AI价值体系,投资逻辑全解析 | 市场观察
私募排排网· 2026-03-25 17:49
AI五层蛋糕理论框架 - 核心观点:AI产业的繁荣是一个由五层环环相扣、相互强化的生态系统构成,从底层物理基础到顶层价值落地,任何一层的短板都可能成为整个产业的增长瓶颈[6] - 第一层:能源层是AI的第一性原理和物理根基,智能的本质是能源的转化,AI是“电力巨兽”,其能源供给效率与成本直接决定了智能的规模与落地边界[7] - 第二层:芯片层是算力转化的核心引擎,其性能、能效比与扩展性直接决定了AI的扩展速度与智能成本[8] - 第三层:基础设施层是AI工厂,作为算力集群的物理载体,承载从训练到推理的全流程算力调度,是人类历史上最大规模的基础设施建设之一[9] - 第四层:模型层是AI的大脑,是将算力转化为智能能力的核心载体,决定了AI的决策精度与场景适配性,正从语言模型向理解物理世界的AI跨越[10] - 第五层:应用层是价值最终出口和产业落地战场,是AI创造可衡量经济价值的终极界面,也是规模最大的环节[11] 能源层:AI的物理根基与电力需求 - 核心作用:作为五层蛋糕的最底层,是AI的物理根基,其下没有抽象层,直接支撑所有上层活动[7] - 需求规模:随着推理场景与智能体应用普及,Token消耗呈指数级增长,AI电力需求远超传统计算场景,预计2030年全球数据中心电力消耗将翻倍至945太瓦时,略高于日本全年总用电量[7] - 投资方向:能源缺口成为制约AI扩张的核心痛点,绿色能源转型、电网升级、储能技术突破成为刚需,绿电运营商、电网设备、储能系统成为AI基础设施建设的配套核心[7] 芯片层:算力转化核心与硬件竞赛 - 核心作用:是将能源高效转化为计算力的核心载体,其性能直接决定了AI的扩展速度与智能成本[8] - 技术进展:英伟达发布Vera Rubin AI工厂平台、Groq 3 LPU芯片,并披露下一代Feynman架构GPU研发进展,采用1.6nm A16工艺、硅光子光互连,推理性能将达Blackwell的5倍,单GPU算力达50 PFLOPS[8] - 产业格局:GPU、LPU、DPU、光模块、存储芯片成为全球科技巨头军备竞赛核心领域,英伟达通过“芯片+平台”全栈布局巩固算力硬件龙头地位,目标到2027年实现1万亿美元营收[8] 基础设施层:AI工厂与算力载体建设 - 核心定义:不同于传统数据中心,AI工厂是集成芯片、网络、冷却、土地的超级算力载体,承载全流程算力调度[9] - 建设规模:全球正大规模兴建芯片制造厂、超级计算机工厂及AI工厂,这是人类历史上最大规模的基础设施建设,且进程才刚刚起步[9] - 关键技术:光互联与硅光子是突破算力瓶颈的关键,液冷技术解决高密度算力集群散热难题,太空数据中心模块拓展了算力的应用场景边界[9] 模型层:智能核心与演进方向 - 核心作用:是将算力转化为智能能力的核心载体,决定了AI的决策精度与场景适配性[10] - 演进方向:AI正从语言模型向物理AI跨越,深入理解生物学、化学、物理规律,开源模型成为激活整个架构栈需求的关键杠杆[10] - 产业格局:呈现“开源与闭源并行、通用与垂直共生”格局,通用大模型构建基础智能能力,垂直领域模型深耕行业场景,成为连接底层算力与上层应用的核心桥梁[10] 应用层:价值落地与产业爆发 - 核心地位:是AI创造可衡量经济价值的终极界面,是五层蛋糕中离市场最近、规模最大的环节[11] - 范式转变:未来几年传统软件与APP形态或将逐渐式微,AI Agent(智能体)将成为主流范式,AI从“回答问题”进化为“自主执行复杂任务”[11] - 落地场景:正迎来爆发拐点,具身智能(自动驾驶、人形机器人)、行业AI(医疗、金融、工业)、企业服务、消费应用等场景全面开花,每个落地场景的繁荣都将反向拉动底层需求[11] AI产业核心投资逻辑 - 底层优先,层层传导:AI产业进入工业化建设期,能源、芯片、基础设施等重资产、高壁垒环节先行爆发,业绩确定性更高;上层模型与应用弹性更大,但需依托底层支撑[14] - Token经济驱动:推理与执行场景带来Token消耗指数级增长,“每Token成本”成为核心竞争指标,全栈效率优化环节(如芯片、光互联、液冷)将持续受益[14] - 重资产基建化:AI工厂、数据中心、芯片厂等基础设施建设是当前全球资本开支的核心方向,相当于新一轮“基建潮”,具备长期刚需属性[14] - 正循环共振:形成“应用→模型→基建→芯片→能源”的强正循环,各环节相互赋能,上层应用繁荣反向拉动底层算力、芯片与能源需求[14] 分层投资策略与主题基金 - 能源层投资逻辑:AI算力爆发催生“电力+电网”双重需求,绿电、电网设备、储能为核心受益方向,具备长期刚需与政策支持双重红利[16] - 芯片层投资逻辑:GPU、LPU、光模块、先进封装为算力军备竞赛核心,国产替代与技术迭代双轮驱动,业绩增长确定性强[18] - 基础设施层投资逻辑:全球AI工厂大规模兴建,数据中心、液冷、光互联、AI集群为核心赛道,资本开支持续投放,业绩兑现节奏快[20] - 模型层投资逻辑:通用大模型、开源生态、垂直模型具备高成长弹性,但竞争激烈,可优先布局技术领先、场景落地能力强的标的[22] - 应用层投资逻辑:具身智能、行业AI、消费应用等场景加速落地,商业化效率决定业绩弹性,优先布局壁垒高、盈利确定性较强的垂直领域[24] AI产业阶段与展望 - 当前阶段:AI产业处于工业化建设初期,正从“训练狂热”转向“推理爆发”,驱动全产业链价值传导[26] - 长期空间:长期成长空间明确,五层架构环环相扣、协同赋能,随着技术成熟与商业化推进,AI有望深度融入各领域,催生海量投资机遇[26] - 价值分布:底层的能源、芯片、基础设施释放长期价值,上层模型与应用加速落地[26]
亚洲科技-2026 年英伟达 GTC 大会:前瞻与展望-Asian Tech-What to expect from NVDA GTC 2026
2026-03-17 10:07
涉及的行业与公司 * **行业**:人工智能基础设施、半导体、先进封装、内存、电源管理、光模块/CPO、数据中心、机器人/物理AI [1] * **核心公司**:英伟达 [1] * **供应链相关公司**:台积电、日月光、ASMPT、GPT、三星电子、SK海力士、台达电、健策、富世达、台耀、硅格、欣兴 [1] 核心观点与论据 1. GTC 2026预期:强调AI基础设施需求与技术演进 * 预计英伟达将传递关于AI基础设施供应链的强烈信息,强调AI基础设施需求强劲,云服务提供商资本支出存在上行空间,且AI实验室在2026年初的token和收入增长强劲 [1] * 预计2026年向智能体AI的转型将快于预期 [1] * 强调NVL机柜的集成与协同设计方法,相比分离式方案能带来更强的性能提升 [1] * 将推动高压直流供电成为数据中心电源效率的关键驱动力 [1] * 预计市场反应不会过于积极,因为焦点已从短期增长幅度转向AI基础设施资本支出周期的持续时间 [1] * 英伟达传递的信息预计对台积电、先进封装供应链、内存和电源供应链有利 [1] 2. 产品路线图:Vera Rubin、Rubin Ultra与Feynman * **Vera Rubin (VR)**:预计按原计划在2026年下半年推出,量产在2026年第四季度,但受HBM4设计变更影响,2026年供应将持续紧张 [5] * **Vera Rubin 性能**:预计相比GB300展示出非常强劲的性能跃升(基于不同配置为3-7倍),重点在于降低推理成本 [5] * **Rubin Ultra**:预计在2027年下半年推出,重申发布计划,关键焦点在于Kyber机柜配置,特别是800V高压直流电源架构和互连选择 [5][6] * **Feynman架构**:预计在2028年下半年推出,将使用台积电A16工艺节点和HBM5系统内存,系统性能将有显著跃升 [7] * **Feynman潜在创新**:某些版本可能开始集成SRAM内存堆栈或LPU到GPU裸片上,以显著提升低延迟性能,并更紧密地整合Groq IP [7] 3. 技术趋势与供应链影响 * **CPO(共封装光学)采用**:市场对CPO采用期望很高,但预计短期内不会成为强制性或快速的转变 [1] * **CPO采用趋势**:市场对英伟达CPO采用计划非常关注,但上游供应商与下游客户的预期存在巨大差异,最终采用率可能低于当前上游预期 [7] * **光学收发器**:由于GPU-GPU互连和ASIC-ASIC互连的持续采用,预计将呈指数级增长 [7] * **高压直流电源机柜**:引入时间早于先前预期,对BBU、超级电容、SiC/GaN、DC/DC转换器供应商有利 [8] * **液冷**:芯片级冷却组件价值预计从Blackwell 300的30美元增长到Rubin的100美元,计算托盘级价值预计从GB300约1,600美元增长到VR的2,300-2,400美元 [8] * **内存与存储架构**:预计英伟达将强调AI推理时代内存的价值,并阐述NAND作为卸载KV缓存的下一解决方案,SOCAMM2和服务器DRAM的内容价值可能高于HBM [9] * **机柜级标准化**:由于云服务提供商客户和供应链的抵制,英伟达可能已暂停销售L10计算托盘的项目,这对ODM和组件供应商是增量利好 [9] 4. 市场需求与竞争格局 * **需求指标**:英伟达近期表示其2025年9月提供的5,000亿美元需求估计存在上行空间,需求指标可能继续保持强劲 [9] * **市场关注点转移**:市场讨论已转向云服务提供商在2026/27年后继续支持不断增长的AI基础设施资本支出的能力,而非仅英伟达或ASIC供应商的预估上调 [9] * **GPU/ASIC竞争**:Vera Rubin的性能跃升可能使GPU/ASIC的辩论重新向GPU倾斜,尤其是如果基于Blackwell的模型在未来几个月重新夺回模型性能领导地位 [9] * **TPU发展**:TPU v8预计是增量改进,而TPU v9设计在复杂性和性能上预计有更大的阶跃式提升 [9][10] 5. 其他重要内容 * **LPU/LPX机柜**:市场已预期英伟达将展示由Groq LPU驱动的LPX机柜,用于低延迟解码/推理任务,供应链检查显示2026年三星代工Groq LPU晶圆需求上修 [5] * **物理AI与机器人**:预计英伟达将概述其在物理AI和人形机器人方面的基础模型进展,但在中短期内不太可能看到采用的突破 [10] * **分析师偏好标的**:包括台积电、日月光、ASMPT、GPT、三星电子、SK海力士、台达电、健策、富世达、台耀、硅格、欣兴 [1] 其他重要但可能被忽略的内容 * **HBM供应挑战**:HBM4设计的近期变更可能导致Vera Rubin在2026年的供应持续紧张 [5] * **Kyber机柜互连方案**:英伟达可能同时展示基于正交PCB背板和光学/CPO的互连解决方案,最终决定将在2026年底做出 [6] * **SRAM与HBM的讨论**:近期行业讨论围绕SRAM可扩展性,可能取代HBM,但这更多源于HBM短缺和内存物料清单成本压力,而非SRAM的容量能力 [9] * **LPU机柜功耗**:由于每机柜更高的LPU密度,LPU机柜的功耗可能高于市场预期,这对服务器电源供应商是利好 [8] * **ICMS平台**:预计英伟达将阐述下一代机柜中ICMS平台的采用,这可能有助于评估采用Bluefield-4 DPU带来的eSSD总潜在市场的增量需求上行空间 [9]
下周,AI算力链迎来重要催化!
私募排排网· 2026-03-15 15:00
GTC 2026大会前瞻与核心产品 - 英伟达GTC 2026大会将于3月16日至19日在美国加州圣何塞召开,作为全球AI算力领域的年度风向标,有望再次点燃市场对算力板块的关注热度[2] - 英伟达创始人兼CEO黄仁勋预告将展示“前所未见”的全新芯片架构,业界预期大会将正式揭晓Rubin及下一代Feynman架构GPU的核心技术细节,并有望推出集成LPU技术的专用推理芯片[2] Rubin平台技术细节 - Rubin GPU(R100/R200)作为英伟达2026年主力GPU架构,预计将采用3nm制程工艺[3] - 本次GTC大会有望首次展示Rubin Ultra配置:单个机柜集成多达144颗GPU,构建高达1.5PB/s的Scale-up网络,单芯片双向互连带宽达到10.8TB/s[3] - 为实现高密度互联,Rubin或将采用双层网络拓扑,并在机柜内部实现“光进铜退”[3] Feynman架构前瞻 - 英伟达有望首次对外披露下一代GPU架构平台Feynman,该架构或将采用台积电A16工艺,预计于2028年正式发布[4] - Rubin单芯片功耗已突破2000W,而Feynman的目标功耗推测将超过5000W,这一功耗跃升将倒逼供电架构、封装形态、散热方案等领域革新[4] LPU推理芯片 - 英伟达可能在大会上发布集成Groq团队LPU技术的全新推理芯片,该系统专为超低延迟推理场景打造,旨在支撑AI智能体等实时交互应用[5] - 该芯片预计将采用基于SRAM的片上内存架构,以实现毫秒级Token生成能力[5] 数据中心基础设施升级方向 - **互连方案**:随着机柜内GPU密度和带宽指数级增长,光通信正从可插拔光模块向CPO(共封装光学)与NPO(近封装光学)演进,本届GTC大会或将成为CPO技术从概念走向商用的关键节点,英伟达Quantum X、Spectrum X系列CPO交换机产品有望公开展示[6] - **电源架构**:芯片功耗从2000W迈向5000W以上,传统分立式供电方案已逼近极限,一次电源的确定性方向是向800V高压(HVDC)切换;三次电源的模块化/垂直供电更具预期差,模块化方案将电感、电容、MOS及控制芯片集成立体模块,在Rubin Ultra及Feynman代际采用概率更高[7] - **散热方案**:液冷技术正逐步成为高功率芯片和超大规模数据中心的标配散热方案,2026年液冷技术迭代重点方向指向散热材料与热界面材料:散热材料上冷板从传统铜材向铜合金升级;热界面材料方面,金刚石散热片和液态金属成为两大主流,液态金属已获认可,金刚石冷却也已出现实际服务器交付案例[7] 相关产业链概念股梳理 - **光通信领域**:天孚通信已接收到部分客户的2026年订单;中际旭创1.6T光模块已通过英伟达认证;华工科技旗下华工正源首发的3.2T NPO光引擎产品已成功应用于行业头部客户[8] - **电源系统领域**:相关公司已成功切入英伟达800V架构的服务器电源供应商名单;与英伟达合作共同推动800 VDC数据中心电力基础设施发展以支持兆瓦级机架部署;相关技术已应用于AI电源模块及车载“三电”系统的内埋SiC芯片等前沿项目;芯片电感产品通过电源模组厂商间接为全球GPU头部客户供应[8] - **液冷散热领域**:有公司是全链条液冷的开创者,率先推出高可靠Coolinside全链条液冷解决方案;有公司基于自身冷板制造能力叠加导热材料技术积累,有望建立“TIM+冷板”的整体散热解决方案,其客户关系与英伟达服务器机柜供应商高度重合;有公司已取得英伟达vendorcode并是其直供商,相关产品已批量供货;有公司液冷领域热管理产品已与40多家客户建立联系或供货;有公司具备金刚石导热复合材料的相关技术储备与产品布局[9]
GTC大会临近,算力再预热
国盛证券· 2026-03-08 19:28
报告行业投资评级 - 增持(维持)[5] 报告核心观点 - 英伟达GTC 2026大会(3月16日-19日)是AI算力产业链新一轮技术迭代的起点,将集中展示下一代GPU架构、CPO共封装光学、电源液冷等前沿突破,有望再次催化算力板块热度[1][21] - 报告继续看好“光+液冷+太空算力”三个方向,按产业发展阶段,其对应的风险偏好依次提升[7][16][25] - 随着GPU单芯片功率迈入千瓦时代,算力基础设施正经历颠覆性升级,CPO、800V高压电源、液冷散热等技术路径和商业化节奏将在大会后进一步明晰[3][23][25] 行业走势与行情回顾 - 报告期内(2026年03月02日-2026年03月08日),通信板块下跌,表现弱于上证综指(-0.9%)[17][20] - 细分板块中,量子通信指数上涨23.2%,表现最优;运营商指数上涨1.5%,光通信指数上涨0.4%;卫星通信导航、通信设备、区块链等指数下跌[18][20] - 个股方面,华工科技上涨28%领涨板块,新易盛上涨12%,合众思壮上涨10%[18][19] GTC大会前瞻:新一代GPU与算力芯片 - **Rubin平台全面登场**:作为2026年主力GPU,Rubin(R100/R200)预计采用3nm工艺,首发搭载HBM4高带宽内存(容量翻倍),大会将公布其商用时间表及整机柜方案[5][24] - **Feynman架构首次预览**:下一代GPU平台Feynman预计2028年发布,采用台积电A16工艺(1.6nm),单颗功耗预计突破5000W,电流达千安级[5][24] - **整合LPU技术的新推理芯片**:英伟达将推出整合Groq团队LPU技术的推理芯片系统,专为超低延迟设计,采用基于SRAM的片上内存,以满足AI智能体等实时交互需求[2][5][22][24] GTC大会前瞻:算力基础设施变革 - **CPO共封装光学**:大会或成CPO商业化落地关键节点,英伟达CPO交换机产品矩阵(Quantum X、Spectrum X系列)有望展出,带动光引擎、激光源等核心部件需求。英伟达计划向光通信巨头Coherent和Lumentum合计投资40亿美元以巩固供应链[5][24] - **电源架构革命**:因Rubin单芯片功率突破2000W,Feynman剑指5000W以上,电源架构将向800V高压(HVDC)切换,三次电源的模块化/垂直供电方案预期差更大[5][24] - **液冷散热加速渗透**:Rubin单芯片功率预计突破2000W,其NVL72机架采用100%液冷方案。散热材料将升级,冷板从传统铜向铜合金升级,TIM材料则向金刚石散热片与液态金属发展[6][24] 产业动态与数据更新 - **HBM4规格调整**:英伟达下调Rubin平台VR200所用HBM4规格,首批带宽约20TB/s(原目标22TB/s),主要因供应商技术瓶颈。SK海力士预计占70%份额,三星占30%,美光基本出局[36][37] - **光模块产能与需求**:光模块厂商AOI表示,其800G产品月产能已达约9万只,目标到2026年底使800G和1.6T产品合计月产能超50万只。当前限制营收增长的因素是供应链和制造能力,而非市场需求[38][39] - **卫星激光通信进展**:全球首条飞机与地球同步卫星激光通信链路建成,传输速率达2.6Gbps[32]。我国实现距地40740.96公里条件下,上下行对称1Gbps的双向高速通信,并无间断维持超过3小时[40][41] - **地缘政治与供应链**:韩国警告伊朗危机可能扰乱关键芯片制造材料(如氦气)供应,但主要厂商如SK海力士称已确保多元化供应链及充足库存[34][35] - **企业投资与算力需求**:亚马逊宣布向西班牙追加180亿欧元数据中心基础设施投资,总额增至337亿欧元[42]。英伟达CEO黄仁勋指出,AI智能体(如OpenClaw)导致Token消耗量激增约1000倍,制造了“算力真空”[26][27] 投资建议与关注标的 - **核心推荐方向**:继续推荐算力产业链,尤其是光模块行业龙头中际旭创、新易盛等,同时建议关注光器件“一大五小”(天孚通信、仕佳光子、太辰光、长芯博创、德科立、东田微)及液冷环节(英维克、东阳光等)[7][16][25] - **建议关注板块及公司列表**: - **算力**:光通信(中际旭创、新易盛、天孚通信等)、铜链接(沃尔核材、精达股份)、算力设备(中兴通讯、工业富联、沪电股份、寒武纪等)、液冷(英维克、申菱环境等)、边缘算力(美格智能、移远通信等)、卫星通信(中国卫通、中国卫星等)、IDC(润泽科技、光环新网等)、母线(威腾电气等)[8][15] - **数据要素**:运营商(中国电信、中国移动、中国联通)、数据可视化(浩瀚深度、恒为科技等)[8][15] - **重点标的盈利预测**: - 中际旭创(300308.SZ):2026年EPS预测为24.06元,对应PE为22.67倍[10] - 新易盛(300502.SZ):2026年EPS预测为21.83元,对应PE为18.42倍[10] - 天孚通信(300394.SZ):2026年EPS预测为3.43元,对应PE为94.05倍[10] - 英维克(002837.SZ):2026年EPS预测为0.96元,对应PE为105.58倍[10] - 沪电股份(002463.SZ):2026年EPS预测为2.40元,对应PE为31.36倍[10]
带宽战争前夜,“中国版Groq”浮出水面
半导体行业观察· 2026-01-15 09:38
AI推理芯片行业趋势:从算力竞赛转向带宽战争 - AI行业竞争焦点正从单纯算力比拼转向对单位面积带宽的极致追求[4] - 大模型推理中90%的延迟源于数据搬运,导致算力利用率常低于30%[4] - 行业共识是通过存储靠近计算、流式执行与片上带宽构建来提升推理效率,AMD、d-Matrix、SambaNova等公司均印证此方向[4] 英伟达的战略布局:收购与架构革新 - 英伟达斥资200亿美元收购Groq核心技术,创公司历史最大交易,旨在抢占AI推理市场[2] - 计划于2028年推出新一代Feynman架构GPU,采用台积电A16制程与SoIC 3D堆叠技术,核心目的是在GPU内部深度集成Groq的LPU(语言处理单元)[2] - 此举旨在解决AI推理中长期存在的“带宽墙”与“延迟瓶颈”,推动公司从“算力霸主”向“推理之王”转型[2] 传统GPU在推理任务中的瓶颈 - 英伟达GPU架构最初为大规模训练与图形渲染设计,强调峰值算力与吞吐能力[14] - 在大模型推理的Decode阶段,GPU性能瓶颈主要来自对外部存储(HBM)和复杂内存层级的高度依赖[14] - 该过程呈现强序列性、小批量和带宽主导特征,与GPU设计初衷错配,导致访存延迟波动、算力难以稳定发挥[14] 寒序科技:中国MRAM推理芯片的开拓者 - 公司源于北京大学物理学院,以“超高带宽推理芯片”为核心产品,被业内视为中国大陆少有的在技术路线层面对标Groq的团队[6] - 采用“双线布局”:SpinPU-M系列磁概率计算芯片覆盖组合优化市场;SpinPU-E磁逻辑计算芯片系列直指大模型推理解码阶段加速[7] - 核心技术路线是片上MRAM(磁性随机存储器),构建超高带宽磁性流式处理架构(MSA)[7][9] - 目标是将访存带宽密度提升至0.1-0.3 TB/mm²·s,比肩Groq LPU(0.11 TB/mm²·s),是英伟达H100(0.002-0.003 TB/mm²·s)的数十倍[12] - 公司是国内首个有能力跑通从物理、材料、器件到芯片设计、算法全链条的交叉团队,拥有“材料-器件-芯片-系统-算法”的全栈攻关能力[16] MRAM技术的优势与战略价值 - **存储密度领先**:MRAM采用1T1M结构,同等芯片面积和工艺节点下,存储密度是SRAM的5-6倍[11] - **工艺成本更低**:MRAM在国产成熟制程(如28nm/22nm)下性能可对标先进制程的SRAM,单片流片成本可降至原来的十分之一以下,保障供应链自主可控[20] - **非易失性与高能效**:断电后数据不丢失,待机功耗接近零,具备快速启动、高耐用性优势,为边缘和云端部署提供极佳能效[20] - **规避技术封锁**:美国出口管制限制内存带宽密度超过2GB/s/mm²的存储器,而HBM产能被海外巨头垄断,Groq的SRAM方案成本极高。MRAM基于成熟制程实现超高带宽,可规避对尖端工艺和海外供应链的依赖[21] - **市场前景广阔**:2024年全球MRAM市场规模估计为42.2亿美元,预计到2034年增长至约847.7亿美元,复合年增长率高达34.99%[30] 国内外MRAM产业发展现状 - **国际大厂积极布局**:台积电、三星、英特尔、SK海力士等已将嵌入式MRAM推进到22nm、16nm等节点。恩智浦、瑞萨电子、GlobalFoundries等已在汽车、工业领域推动MRAM商业化落地[23] - **国内生态初步形成**:RRAM领域有昕原半导体等玩家;MRAM赛道有寒序科技、致真存储、驰拓科技、凌存科技、亘存科技等企业[26] - **国内厂商侧重各异**:致真存储专注于MTJ器件与制造工艺,研制出全球首颗8Mb容量SOT-MRAM芯片;驰拓科技是国内首家实现MRAM量产的企业;凌存科技专注于存储模块开发[27] - **寒序科技的差异化定位**:以MRAM为核心介质构建计算芯片,开辟“磁性计算”新赛道,推动国内MRAM技术从存储替代向计算革新跨越[28][29] 下一代AI推理芯片的竞争格局 - 下一代竞争分水岭在于“谁能率先跨过带宽墙”,主导市场者需在“带宽战争”中沉淀出护城河[35] - 两条突破路径清晰:一是Groq选择的极致SRAM片上集成路径;二是以MRAM为代表的新型存储介质路线,后者更具根本性且符合长期成本与供应链安全需求[35] - “通用算力+专用引擎”成为行业趋势,英伟达收购Groq整合LPU即是例证。国内AI芯片厂商应加强与在新型介质与架构上有底层创新能力的团队合作[32] - 以MRAM为代表的新型存储已成为后摩尔时代核心焦点,有望成为中国AI芯片产业实现换道超车的关键抓手[33]
消息称英伟达独占台积电A16工艺首单
格隆汇APP· 2025-10-29 09:40
台积电A16工艺客户动态 - 英伟达成为台积电下一代A16工艺目前唯一客户,双方正就此展开联合测试 [1] - 台积电长期大客户苹果公司尚未就其移动应用处理器采用A16工艺一事展开洽谈 [1] 英伟达GPU技术路线图 - 英伟达GPU产品演进顺序为Hopper、Blackwell、Rubin,最终到达Feynman [1] - 计划于2028年推出的Feynman架构GPU预计将全面采用台积电的A16工艺制造 [1]