Workflow
AI推理
icon
搜索文档
江波龙(301308) - 2026年3月9日-13日投资者关系活动记录表
2026-03-17 18:29
核心技术能力与产品进展 - 公司是全球少数具备在芯片层面开发UFS4.1产品能力的企业之一 [3] - 公司自研主控的UFS4.1产品在制程、读写速度及稳定性上优于市场可比产品 [3] - 搭载公司自研主控芯片的UFS4.1产品已与多家晶圆原厂及头部智能终端厂商深度合作,正处于批量出货前夕 [3] 供应链与合作伙伴关系 - 公司与全球主要存储晶圆原厂建立了深层次、多角度的合作关系 [3] - 公司与合作伙伴签署了长期供货协议(LTA)或商业合作备忘录(MOU),供应基础深厚 [3] - 公司依托全栈能力及上下游深度协同,在晶圆供应结构性偏紧环境下构建了差异化的供应保障能力 [3] 市场策略与定价机制 - 存储晶圆与存储器产品价格由存储产业的供需格局决定 [3] - 公司密切关注市场供需变化与价格趋势,并结合客户订单情况动态调整产品定价 [3] - 公司结合存储行业情况、产品特点及客户结构,制定并执行适合自身的生产经营节奏 [3] 行业周期与市场展望 - AI推理在系统架构与资源调度上的结构性变化,显著扩大了对存储容量的需求 [4] - AI基础设施快速扩张与HDD供应短缺,共同推动存储需求爆发式增长 [4] - 受制于产能建设周期的滞后性,即使存储原厂资本开支回升,对短期供应的增量贡献也较为有限,市场供需结构预计维持偏紧格局 [4]
英伟达押注下一个万亿级机遇,入局AI服务器系统
第一财经· 2026-03-17 17:18
公司动态与战略 - 英伟达年度开发者大会于3月16日在美国加利福尼亚州圣何塞开幕,将持续至3月19日 [1] - 英伟达首席执行官黄仁勋发表了约两个半小时的主题演讲 [1] - 公司预计到2027年底,其新一代AI加速芯片将至少创收1万亿美元 [1] - 公司将与专注推理技术的初创公司“格罗克”合作推出AI服务器系统 [1] 行业趋势与市场观点 - AI推理市场拐点已经到来,AI正从训练阶段全面进入推理与执行阶段 [1] - AI推理算力需求呈指数级爆发 [1] - 公司正加大在低成本、低延迟推理计算领域的布局,以支撑万亿级算力市场 [1]
“AI牛市叙事”再掀巨浪! 黄仁勋抛出万亿美元AI宏图 英伟达(NVDA.US)扬帆起航冲6万亿美元市值
智通财经网· 2026-03-17 13:00
公司战略与愿景升级 - 公司核心战略从“卖AI GPU的公司”彻底重构为“卖AI工厂的芯片巨头”或“AI基础设施总包商”,竞争单位从单颗芯片升级为整座AI工厂[6][12][14] - 公司提出“前所未有AI算力创收超级宏图”,将AI芯片与基础设施的营收机会规模从到2026年的5000亿美元大幅上调至到2027年的至少1万亿美元[1][6][16] - 公司致力于定义下一代“AI工厂”的生产函数,将计算、网络、存储、软件、供电和冷却作为一个整体进行极限协同优化,重写AI基础设施经济学[7][12][13] 财务与市场预期 - 华尔街分析师平均目标价显示,公司未来12个月股价上行潜力高达51%,最乐观目标价达360美元,对应市值约6.6万亿美元至8.8万亿美元[1][14] - 高盛等机构认为,1万亿美元的营收前景为市场提供了长周期需求背书,缓解了投资者对“AI资本开支可能在2026年见顶”的焦虑,重申“买入”评级[16][18] - 公司市值目前约为4.45万亿美元,在强劲营收增长前景推动下,即将再度突破5万亿美元大关并有望创历史新高[1][14] 技术架构与产品发布 - 公司正式推出Vera Rubin平台,将CPU、GPU、LPU、DPU、SuperNIC、交换芯片和存储架构整合成平台级系统,其中Vera Rubin NVL72机架由72个Rubin GPU和36个Vera CPU构成[8][9] - 为应对AI推理需求,公司采用异构计算策略,将推理拆分为prefill和decode两段,分别由Vera Rubin平台和收购授权的Groq 3 LPU/LPX机架负责,以实现高吞吐与超低时延[9][17] - 官方数据显示,Vera Rubin NVL72相比Blackwell平台可实现最高10倍的每瓦推理吞吐、仅十分之一的单token成本,训练大规模MoE模型所需GPU数量可降至原来的四分之一[7] - 在软件与生态层面,推出Dynamo 1.0推理操作系统、Agent Toolkit等工具,并扩展了包括Nemotron、Isaac GR00T在内的开放大模型家族,预告了下一代Feynman架构路线图[10] 行业趋势与竞争格局 - 行业主线正从“训练”推进到“推理+智能体AI”,未来的算力竞争核心指标是“tokens per watt、cost per token、time to first production”[6][7] - AI推理时代已经到来且需求不断上升,公司在该领域正面临来自CPU以及谷歌等公司的定制AI ASIC处理器的更激烈竞争[4][5][17] - 全球科技巨头的资本开支更倾向于向AI算力基础设施集中,围绕AI算力的“AI牛市叙事”是全球股市中最具确定性的景气投资叙事之一[3] 市场扩张与多元化应用 - 公司将“AI工厂”的概念从云数据中心扩展为跨云、边、端、车、机器人甚至太空的统一基础设施范式,推出了面向工业、医疗等领域的IGX Thor边缘计算平台以及用于太空推理的Space-1 Vera Rubin Module[11] - 官方称Space-1 Vera Rubin Module相较H100可为太空推理带来最高25倍AI算力[11] - 公司通过整合CPU、GPU、LPU、网络、Agent软件与数据中心经济学,旨在锁定未来数年的token经济学、推理货币化进程和基础设施议价权[12][13]
直击GTC:1万亿美元GPU、为龙虾做“CUDA”,老黄就指着你烧token了
创业邦· 2026-03-17 12:14
英伟达2026 GTC大会核心发布与战略 - 公司通过整合收购的Groq技术与新推出的OpenClaw生态解决方案,构建了新的增长叙事,旨在解决AI推理中的高吞吐与低延迟矛盾,并开拓高达3000亿美元的增量市场机会 [6][7][11] - 公司CEO黄仁勋预测,从2025年到2027年,公司的芯片业务规模将持续增长至1万亿美元 [12] - 公司发布了下一代AI基础设施Vera Rubin系统,并预告了2028年的Feynman架构,确立了每年更新一代产品的技术路线图 [14][61] Vera Rubin系统与Groq LPU整合 - Vera Rubin系统采用端到端垂直整合设计,作为一台超级计算机进行优化,核心Rubin GPU采用台积电3nm工艺,拥有3360亿晶体管 [14][17] - Rubin GPU配备288GB HBM4内存和22TB/s带宽,推理性能达50 PFLOPs,比上一代Blackwell提升5倍;训练性能达35 PFLOPs,提升3.5倍 [17] - 系统首次集成Groq 3 LPU,采用确定性数据流架构和SRAM,专为低延迟的token生成设计,单颗芯片SRAM容量为500MB [18][21] - 公司通过Dynamo软件实现“解耦推理”,由Rubin GPU负责prefill和attention,Groq LPU负责feed-forward的decode,两者通过以太网紧耦合使延迟减半 [21][22] - 由256颗Groq 3 LPU组成的LPX整机可提供128GB SRAM、40 PB/s的带宽以及315 PFLOPs的推理算力 [31][33] - 整套NVL72系统采用100%液冷设计,使用45度热水冷却,安装时间从两天压缩至两小时,并配备了第六代NVLink和首款CPO交换机Spectrum X [35] 市场机遇与商业模式创新 - 整合Groq的Vera Rubin系统能为客户解锁一个价值3000亿美元的增量营收机会 [7][9] - 公司预测,到2027年,市场对其产品的需求将至少达到1万亿美元,主要驱动力是“推理拐点”,即AI从聊天向能推理、能干活(Agent)的演进导致单次推理算力需求和使用量暴增 [40] - 公司通过一张“推理性能与效率驱动公司业绩”的图表,将硬件性能与商业定价直接挂钩,定义了从免费到150美元/百万token的五档服务层级 [47][50][51] - 图表显示,Vera Rubin系统使45美元/百万token的Premium层级服务变得经济可行,而结合Groq LPX后,能让一个尚不存在的150美元/百万token的Ultra层级服务成为可能 [51][56] - 据测算,一个1GW数据中心,若将25%算力分配给各服务层级,Blackwell架构年营收可达300亿美元,Vera Rubin架构可达1500亿美元(5倍),而Vera Rubin + Groq LPX组合可达3000亿美元(10倍) [54][56] - 公司CEO提出“数据中心是生产token的工厂”,算力直接等同于营收,并宣称英伟达的系统是全球范围内可获取的成本最低的AI基础设施 [59] OpenClaw生态与NemoClaw战略 - 公司将OpenClaw定位为与Windows、Linux同级的新计算平台,认为其是Agent时代的操作系统,几周内GitHub Star数便超越了Linux三十年的积累 [68] - 针对企业应用的安全顾虑,公司推出了NemoClaw解决方案,为核心是OpenShell,为企业OpenClaw应用提供策略引擎、网络护栏和隐私路由等安全层 [69][70] - 公司将NemoClaw与CUDA类比,旨在使OpenClaw从个人玩具转变为企业级基础设施,并预测未来每家SaaS公司都将转变为生成式服务公司,企业IT市场将从2万亿美元的工具产业升级为价值数万亿美元的Agent产业 [71] - 公司预测,未来工程师的薪酬包可能包含年度token预算,个人生产力可借此放大10倍 [71] 技术路线图与未来产品预告 - 公司产品路线图明确:当前为Blackwell,2026年下半年推出Vera Rubin,2027年推出Rubin Ultra搭配Kyber机架,2028年推出Feynman架构 [61] - Feynman架构将包含全新GPU、LP40 LPU、Rosa CPU、BlueField 5 DPU等七个全部换代的组件 [61] - 公司还提及了Vera Rubin Space-1项目,计划将计算模块送入太空构建数据中心 [63] 软件、模型与生态合作 - 公司宣布成立Nemotron开源模型联盟,涵盖语言推理、物理AI、自动驾驶、机器人等多个前沿领域,其中Nemotron 3 Ultra定位为全球最好的基础模型,供各国定制主权AI [75] - 联盟首批成员包括Mistral、Perplexity、LangChain等知名公司 [75] - 公司CEO透露,其100%的软件工程师都在使用Claude Code,并称其为第一个Agentic模型 [40]
AI计算迎来重大变革,英伟达押注的“推理”是什么?
凤凰网· 2026-03-17 10:15
AI行业焦点从训练转向推理 - AI领域正经历重大变革,焦点从过去五年大语言模型的高成本、长周期训练,转向模型部署和商业化所需的推理计算 [2][3] - 根据Gartner数据,2024年全球推理基础设施资本支出预计将首次超过训练资本支出 [3] - 到2029年,企业在推理上的投入预计将达到720亿美元,是训练投入370亿美元的近两倍 [3] 芯片市场需求与竞争格局变化 - 科技公司购买的芯片类型将因焦点转向推理而发生重大变化 [4] - 专门为推理任务优化的芯片(如来自谷歌、Cerebras Systems、SambaNova的产品)能带来性能提升,相关制造商正以越来越快的速度签下价值数十亿美元的订单 [4] - 英伟达在2023年12月斥资200亿美元获得定制推理芯片公司Groq的技术授权并吸纳其人才,准备推出自己的推理专用处理器 [4] 推理计算的技术原理与需求特点 - 推理计算是让训练好的AI模型响应用户查询的过程,类比为餐厅厨师接单备餐 [5][6] - 推理包含预填充和解码两个阶段:预填充阶段解读用户查询,需要更强的处理能力;解码阶段生成响应,需要更大的内存来调动模型积累的全部知识 [7][8] - 推理过程按需进行,耗时以秒计,对延迟极其敏感,超过十秒用户可能失去耐心 [11] - 推理芯片必须配备更大容量的高带宽内存,且数据中心需邻近用户以降低延迟 [11] - 芯片创业公司如Ayar Labs越来越多地采用数据传输更快、所需冷却更少的光纤连接组件 [11] 推理芯片的关键性能与成本指标 - 推理的基本数据单位是词元,通常一个词元约相当于四分之三个英文单词 [9] - 公司(如会计软件、旅行预订服务、图像生成器提供商)高度关注“每瓦每秒生成的词元数”或“每美元每秒生成的词元数”这类成本指标 [10] - 降低推理成本成为关键,推理芯片高效输出结果的能力变得尤为重要 [10] 训练与推理芯片的核心区别 - 训练芯片:需在长时间内处理海量数据,要求强大的处理能力,数据中心需充足能源和冷却水;内存不足时可将部分任务分派给其他芯片或等待内存释放 [11] - 推理芯片:需应对瞬时、低延迟需求,强调大容量高带宽内存和靠近用户的数据中心部署 [11]
郭明錤:英伟达(NVDA.US)投资Groq带动AI推理芯片需求爆发 LPU出货规划上修至2027年最高500万颗
智通财经网· 2026-03-16 14:54
行业趋势与市场前景 - AI推理硬件市场规模预计在未来两年迎来数量级成长 [1] - 市场普遍认为AI应用正从训练阶段转向大规模推理部署,低延迟、高吞吐量的专用推理芯片将成为数据中心升级核心 [2] - 英伟达与Groq的合作被视为推动AI基础设施进入新周期的重要指标 [2] 公司产品与技术规划 - Groq旗下LPU(语言处理单元)的出货规划出现显著上修 [1] - 英伟达计划将单一AI机柜中的LPU配置数量从目前的64颗大幅提升至256颗,以扩充存储器容量并维持超低延迟的推理效能 [1] - 此举被视为应对生成式AI与大型语言模型推理需求持续攀升的重要策略 [1] 出货量预测与增长 - 2026年至2027年期间,LPU累计出货量预计将达到约400万至500万颗 [1] - 2026年LPU出货占比约30%至40%,2027年则提升至60%至70% [1] - 与过去年度相比,整体LPU出货量将实现超过10倍的成长 [1] - 新一代架构机柜预计在2026年第四季度至2027年第一季度进入量产 [1] - 2026年机柜出货量预估约为300至500个,而2027年则有望大幅跃升至15,000至20,000个,呈现爆发式成长 [1]
智微智能:参股元川微,智算业务或加速增长-20260316
华泰证券· 2026-03-16 10:25
投资评级 - 维持“买入”评级 [1] 核心观点 - 公司参股国内领先LPU公司元川微,加码边缘及端侧AI推理赛道,是完成全场景AI算力生态的关键延伸,有望在下一代AI推理硬件生态中构筑核心竞争力 [1] - 2026年预计将成为AI Agent推理端从“能力验证”走向“规模化应用”的关键拐点年,Agent渗透将推动Token消耗斜率加速上行,国内算力Beta景气度将上行 [2] - 公司顺应Agent需求,智算业务与NAS代工有望加速增长,同时机器人控制器业务快速拓展,公司利润有望加速增长 [3][4] - 考虑到25年下半年智算业务招标延迟及26年新一轮算力集群招标加速,预计公司26、27年智算业务将加速放量,驱动利润增长 [5][11] 业务与战略分析 - **AI算力与智算业务**:公司智算业务通过控股51%的子公司“腾云智算”开展,该子公司25年上半年实现收入2.98亿元,净利润1.62亿元,是母公司的主要净利润来源 [11]。预计凭借渠道与客户资源优势,智算业务将迎来快速增长 [3][11] - **边缘AI与LPU布局**:公司参股元川微,后者依托自研的硬数据流架构与全资源编译器等核心技术,旨在降低AI推理应用的部署复杂度和总拥有成本(TCO),以契合Agent时代对低时延推理的需求 [1] - **NAS设备代工**:公司是国内如绿联等NAS头部品牌的核心供应商,有望承接OpenClaw热潮带来的NAS设备需求增长 [3] - **机器人控制器业务**:公司是英伟达端侧芯片Thor的官方合作厂商,提供了覆盖机器人训练、仿真渲染与控制全链路的整合解决方案 [4]。25年8月发布了基于Thor芯片的机器人大小脑控制器,已与多家具身智能头部企业合作,预计26年该业务收入将加速释放 [4] 财务预测与估值 - **盈利预测**:预测公司2025年、2026年、2027年归属母公司净利润分别为1.5亿元、4.6亿元、5.9亿元 [5]。对应每股收益(EPS)分别为0.59元、1.82元、2.31元 [5] - **收入预测**:预测公司2025年、2026年、2027年营业收入分别为43.98亿元、58.62亿元、67.66亿元,同比增长率分别为9.02%、33.28%、15.42% [10] - **利润率预测**:预测公司毛利率将从2025年的19.55%提升至2026年的28.14%和2027年的28.47%;净利率将从2025年的5.68%提升至2026年的13.16%和2027年的14.48% [17] - **估值与目标价**:基于可比公司2026年预期市盈率(PE)平均48.6倍,给予公司2026年预期PE 48.6倍,对应目标价为88.45元 [5][12] - **当前股价与市值**:截至2026年3月13日,公司收盘价为73.24元,市值为184.75亿元 [7] 行业背景与催化剂 - **AI Agent发展**:AI Agent正从能力验证走向规模化应用,进入高价值生产工作场景,成为数字劳动力 [2]。Agent执行连续任务导致Token消耗随任务复杂度成倍放大,推动算力需求增长 [2] - **国内算力需求**:Agent的快速渗透推动推理侧Token调用快速增长,国内互联网大厂算力资本开支持续加码,算力集群招标景气度提升 [3][11] - **技术范式转变**:当前AI推理范式从Chatbot向Agent转变,众多小批次的推理任务对时延要求提升,LPU技术路线天然契合低时延需求 [1]
英伟达GTC大会前瞻!或将释放三大关键信号
格隆汇· 2026-03-16 10:14
文章核心观点 - 英伟达年度GTC开发者大会被视为AI产业重要风向标 本届大会战略重心从训练转向推理 供应链布局可能调整 [1] 关键信号一:切入AI推理市场 - 公司可能借助整合Groq技术大举切入AI推理市场 [1] 关键信号二:供应链与客户布局 - 代工端或首度引入三星 打破台积电垄断 [1] - OpenAI有望成为首批大客户 [1] 关键信号三:生态扩展 - 机器人物理AI及开源模型生态有望进一步扩展 [1]
英伟达GTC大会前瞻:三大看点!
美股IPO· 2026-03-16 09:26
文章核心观点 本届英伟达GTC大会被视为AI产业的重要风向标,其释放的战略信号可能重塑2026年的产业格局,核心关注点在于公司战略重心从AI训练向推理市场的转变、供应链的潜在重构以及在AI应用生态上的扩展 [3][4][5][11] 战略重心转变:切入AI推理市场 - 当前AI产业正从“训练优先”逐步转向“推理驱动”,英伟达在训练领域优势稳固,但在推理市场面临Cerebras等竞争者的挑战 [5][6] - 公司预计将宣布一套融合英伟达与Groq技术的新型芯片系统,以应对推理市场竞争,该系统是公司首次将另一家公司的AI处理器(Groq LPU)直接整合进其服务器机架体系 [5][6] - 此次整合基于公司在2023年底斥资约200亿美元获得Groq技术许可的背景,Groq LPU是专门针对推理工作负载优化的芯片 [6] 供应链布局调整:引入三星代工 - 新的Groq LPU芯片预计将在2024年下半年由三星代工生产,这可能是英伟达服务器芯片首次由台积电以外的代工厂制造,旨在打破长期依赖单一供应商的格局 [5][7] - 这一变化可能主要是阶段性的,由于下一代LPU需要与英伟达未来AI芯片更紧密整合,后续生产仍可能回归台积电 [7] - 在需求端,英伟达预计将宣布OpenAI成为该新系统的首批客户之一,该芯片系统可能用于驱动AI代理执行编码等任务 [5][8] 技术架构与未来路线图 - 新系统架构设计显示,每个服务器机架将搭载256颗Groq芯片,并由Intel处理器负责通信管理,这表明英伟达现有架构尚未与LPU完全融合 [9] - 公司有长远整合计划,内部正在探索将Groq处理器与下一代Feynman GPU(Rubin架构后继产品)融合为单芯片的方案,旨在提升性能并降低整体成本 [9] AI应用生态扩展 - 随着“AI摩尔定律”(算力效率约每四个月翻倍)持续推进,公司在机器人和物理AI领域的布局备受关注,特别是在中国人形机器人产业加速发展的背景下,其能否在自动驾驶等场景提供更具成本优势的解决方案成为市场焦点 [10] - 公司在开源模型领域快速推进,已发布1200亿参数的Nemotron 3 Super模型,并计划推出参数规模扩大四倍的Nemotron 4 Ultra,模型能力提升有望进一步降低企业AI推理成本并改善投资回报率 [10]
英伟达GTC大会前瞻:整合Groq技术大举进攻推理芯片,三星首度代工生产,OpenAI或成首批客户
华尔街见闻· 2026-03-16 09:07
英伟达GTC大会核心观点 - 英伟达年度GTC开发者大会被视为AI产业重要风向标,本届大会将释放公司战略重心从训练向推理转变、供应链调整及扩展应用生态三大关键信号 [1] 战略重心转向AI推理市场 - AI产业正从“训练优先”转向“推理驱动”,英伟达在训练领域优势稳固,但在推理市场面临Cerebras等竞争者以更高速度、更低成本方案的挑战 [2] - 公司预计将宣布融合英伟达与Groq技术的新型芯片系统,以切入AI推理市场,该系统是英伟达首次将另一家公司的AI处理器(Groq LPU)直接整合进其服务器机架体系 [2] - 为获得Groq的LPU技术,英伟达在去年底斥资约200亿美元 [2] 供应链布局调整 - 新的Groq LPU芯片预计将在2024年下半年由三星代工生产,这可能是英伟达服务器芯片首次由台积电以外的代工厂制造 [3] - 这一供应链变化或为阶段性安排,由于下一代LPU需与未来AI芯片更紧密整合,后续生产仍可能回归台积电 [3] - 在需求端,OpenAI预计将成为该新系统的首批客户之一,芯片系统可能用于驱动AI代理执行编码等任务 [3] 技术架构与整合路线 - 新系统架构与现有系统明显不同,每个机架将搭载256颗Groq芯片,并由Intel处理器负责通信管理,显示现有架构尚未与LPU完全融合 [4] - 公司有长远整合计划,内部正在探索将LPU更深层整合进未来产品路线图,其中一个方案是将Groq处理器与下一代Feynman GPU融合为单芯片,以提升性能并降低成本 [4] AI应用与生态扩展 - 随着“AI摩尔定律”(算力效率约每四个月翻倍)持续推进,公司在机器人和物理AI领域的布局备受关注,尤其是在中国人形机器人产业加速发展的背景下 [6] - 公司在开源模型领域快速推进,已发布1200亿参数的Nemotron 3 Super模型,并表示将推出参数规模扩大四倍的Nemotron 4 Ultra [6] - 模型能力的提升有望进一步降低企业AI推理成本,并改善整体投资回报率 [6] - 本届GTC释放的信号或将在很大程度上影响2026年AI产业格局 [6]