Workflow
Rubin平台
icon
搜索文档
国联民生证券:英伟达业绩印证行业景气 国产液冷迎黄金窗口
智通财经网· 2026-03-20 15:15
英伟达业绩与液冷行业趋势 - 英伟达2026财年第四季度及全年业绩大幅超越市场预期 数据中心营收占比高达91.5% [1] - 公司GB300产品液冷深度渗透 下一代Rubin平台将实现100%强制液冷 单机柜功率密度大幅跃升 液冷从“可选配置”升级为“AI算力基础设施标配” [1] - 公司CEO黄仁勋在财报电话会议中强调“计算需求呈指数级增长 代理式AI拐点已到来” 行业需求确定性进一步明确 [1] 液冷技术升级与价值量提升 - 相较GB300的混合冷却 Rubin平台实现100%全液冷 并升级微通道冷板 采用无缆线无软管模块化连接 [2] - 新技术在降低维护难度和泄漏风险的同时 驱动单机柜液冷部件价值量提升 行业价值中枢有望同步抬升 [2] - 微通道技术壁垒有望为具备相关技术储备的厂商带来量价齐升的机遇 [2] 供应链开放与国产厂商机遇 - 英伟达供应链策略从H100的“指定独供”转变为GB300的“白名单+ODM自主采购” 下放了冷板、CDU等核心部件的采购权 [3] - 下一代Vera Rubin平台单机柜功率密度大幅提升 架构设计实现“100%”全液冷散热 支持45℃热水冷却且无需传统冷水机 对微通道冷板、高密度CDU等技术提出更高要求 [3] - 在液冷技术迭代需求压力下 供应链开放趋势预期长期延续 具备核心技术储备的国产厂商正迎来入围英伟达合格供应商名单的历史性机遇 [1][3] ASIC芯片发展驱动液冷第二增长极 - GPU与ASIC为互补共存关系 在不同的使用场景下各有优势 [4] - 谷歌、亚马逊、微软等云巨头自研ASIC快速放量 例如TPUv7单芯片功耗达980W Trainium3支持144颗芯片液冷方案 [4] - 芯片功耗突破风冷物理极限 ASIC市场份额预计在2026年升至27.8% 驱动液冷需求迎来快速增长 [4] 国内能效政策加速液冷渗透 - 在“双碳”战略下 北京、上海等多地政策落地 规定PUE>1.35的数据中心将被征收差别电价 低效数据中心纳入淘汰目录 [5] - 液冷作为降低PUE最核心、最有效的技术路径之一 已成为数据中心合规、避罚、绿色转型的重要选项 政策红利全面释放 [5] 行业驱动逻辑与投资方向 - 算力建设需求提升 英伟达超预期表现及高液冷渗透率、能效政策收紧落地、ASIC放量形成第二增长极 这三轮驱动共同支撑液冷行业高景气持续 [6] - 投资建议围绕三大核心逻辑展开:一是技术储备领先、有望入围GB300/Rubin白名单的国产核心部件厂商 二是深度适配ASIC高功耗芯片的液冷解决方案企业 三是拥有全栈交付能力、订单能见度高的行业龙头 [6] - 具体建议关注的标的包括:液冷板领域的英维克、思泉新材、飞荣达、中航光电 CDU领域的英维克、申菱环境、曙光数创 液冷泵阀领域的大元泵业、南方泵业、飞龙股份、伟隆股份 [6]
都盯着英伟达的芯片,黄仁勋已经培养出了“第二支柱”
华尔街见闻· 2026-03-19 11:58
公司业务与财务表现 - 网络业务已成为英伟达第二大收入来源,仅次于计算业务 [1][4] - 上一财季网络业务营收达110亿美元,同比增长267% [1][4] - 网络业务全年营收超过310亿美元 [1][4] 市场地位与竞争格局 - 英伟达单季度网络业务营收已超过老牌网络巨头思科全年的网络业务预估 [1][4][5] - 网络业务的惊人增长速度和规模直接重塑了网络设备市场的竞争格局 [1][5] 业务增长驱动与战略布局 - 网络业务的爆发直接受益于AI处理需求的激增 [1][5] - 该业务是英伟达在2020年以70亿美元战略收购以色列网络公司Mellanox后布局的成果 [2][6] - 收购Mellanox被视为让GPU成为完整解决方案的“缺失拼图” [2][6] - 拥有网络业务使得英伟达能够将GPU与最匹配的网络技术打包销售 [2][6] 技术构成与产品定位 - 网络业务技术矩阵包括NVLink、InfiniBand Switches、Spectrum-X AI网络以太网平台以及共封装光学交换机等 [1][5] - 这些技术组合构成了构建“AI工厂”(专门用于训练AI模型的数据中心)所需的所有基础设施 [2][5] - 公司强调网络是“AI工厂”的基石和背板,是计算机的基础,而不仅仅是连接设备 [3][7] 商业模式与竞争优势 - 英伟达网络业务采用独特的全栈解决方案商业模式,不单独出售组件 [2][6] - 公司构建了完整的、完全集成的计算堆栈,并通过所有合作伙伴推向市场 [3][6][7] - 公司认为其全栈能力是独特的竞争优势 [3][7] 近期发展与产品更新 - 在3月16日的Nvidia GTC技术大会上,公司推出了包括Rubin平台、Inference Context Memory Storage平台以及更高效的Spectrum-X Ethernet Photonics交换机等一系列网络系统更新 [3][7]
黄仁勋喊出“1万亿”,为何英伟达依旧难涨?
华尔街见闻· 2026-03-18 11:52
核心观点 - 公司CEO在GTC大会上宣布了创纪录的营收展望,但市场反应冷淡,这反映出公司规模已极其庞大,传统的增长叙事和估值逻辑面临挑战,叠加宏观逆风,股价缺乏新的上行催化剂 [1] 营收展望分析 - 公司CEO宣布,对Blackwell和Rubin平台的营收可见度已超过1万亿美元,覆盖2025年至2027年底,较去年秋季披露的500亿美元展望翻倍 [1] - 然而,该1万亿美元展望与华尔街现有预期相比,实际上升空间有限,更多是验证而非上调预期 [1][2] - 有分析师指出,1万亿美元仅涵盖Blackwell和Rubin两个平台,不包含其他数据中心产品,因此整体数据中心营收将超过这一数字 [2][3] - 该指引被视为当前时点的快照,距离2027年底尚有七个季度,营收趋势仍有进一步改善的空间 [3] 市场与竞争格局 - 公司在AI芯片市场占据超过80%的份额,市场仍在大幅增长,但庞大的体量使得前进道路看起来更难 [4] - 竞争对手如博通和AMD近期均与超大规模云计算客户达成芯片合作,公司现在必须比以往更努力地争夺营收 [4] - 有投资者认为,公司供应链中与其相关的公司,比公司本身具有更大的弹性和上行潜力 [4] 估值与市场反应 - 公司市值已超过4万亿美元,这使其交易逻辑和资金流动动态与其他股票截然不同 [4] - 投资者在寻找有潜力翻倍的标的,而公司若要实现市值翻倍,需达到约9万亿美元,这大致相当于德国和印度GDP的总和 [4] - 本次GTC大会后的股价反应明显逊于往届:2024年3月和2025年3月的大会后,股价次日分别上涨3.12%和3.15%,而本次演讲后股价仅微涨1.7%,随后转跌0.7% [1][6] 宏观环境与股价表现 - 宏观环境的恶化持续压制公司股价的表现空间,包括市场避险情绪、降息预期收窄以及衰退担忧 [6] - 公司股价自去年夏天以来基本被困于180至190美元区间,难以突破 [6]
黄仁勋凌晨发布英伟达版龙虾,特意提及中国龙虾热,Rubin Ultra算力较前代提升35倍
新浪财经· 2026-03-17 17:27
公司战略与市场定位 - 公司CEO黄仁勋通过展示中国市场的“龙虾热”现象,强调OpenClaw开源项目已成为人类历史上最受欢迎的开源项目,其普及速度在几周内超过了Linux三十年的成就 [1][4] - 公司描绘了从芯片到软件再到智能体的完整AI技术版图,并在GTC大会上发布了包括Nemo Claw企业级AI智能体平台、Rubin平台、Vera CPU及多款开放模型在内的多项产品与技术 [3] - 公司强调其技术积累,包括可编程着色器面世25周年和CUDA面世20周年,是当前Rubin平台得以实现的基础 [6] 核心产品发布:Nemo Claw 与 OpenClaw - OpenClaw被定义为一个智能体操作系统,其功能类似于Windows之于个人计算机,旨在让个人智能体成为可能,用户可通过一行命令自动下载、安装并构建智能体以执行任务 [6] - 基于OpenClaw,公司推出了企业级参考设计Nemo Claw,该平台集成了OpenShell安全层,提供网络护栏和隐私路由器,以确保智能体在企业网络中安全运行且不泄露敏感信息 [8] - Nemo Claw是公司与“龙虾之父”Peter Steinberg合作的成果,并已吸引Black Forest Labs、Cursor、Mistral、Perplexity等公司加入其Nemo Tron联盟,共同推进智能体技术 [8] 新一代硬件平台:Rubin 与 Vera CPU - Rubin平台在高端推理层级上相比前代Hopper实现了10倍的性能提升,其设计目标是让数据中心成为高效的“token工厂”,在1GW的数据中心里,Rubin能带来5倍的收入提升 [14] - Vera CPU是公司全新设计的数据中心CPU,专为智能体应用打造,是世界上唯一使用LPDDR5的数据中心CPU,公司CEO称其拥有无与伦比的单线程和每瓦性能,并预计其单独销售将成为一个数十亿美元的业务 [11] - Vera Rubin系统实物采用100%液冷设计,消除了所有线缆,将安装时间从过去的两天缩短到两小时,第一台系统已在Microsoft Azure上运行 [10][15] 高性能计算与下一代架构:Rubin Ultra 与 Feynman - Rubin Ultra是Rubin平台的高性能版本,采用全新的垂直插入式Kyber机架设计,每个机架能连接144个GPU形成一个NVLink域,其芯片即将流片,并配合LPDDR35内存及NVFP计算结构,在最需要高性能的推理层级实现了35倍的性能提升 [14][18] - Rubin GPU通过NVLink 72实现72个GPU间130TB/s的全互联带宽,使整个系统能作为一个巨大的GPU运行,以满足智能体系统处理海量token、频繁访问内存和快速使用工具的需求 [15] - Feynman是公司规划的下一代计算平台,将采用LPDDR40内存,配备全新的Rosa CPU、BlueField-5 DPU和CX-10 SuperNIC,并首次同时支持铜缆和共封装光学器件的scale-up,以满足未来的巨大容量需求 [17][20] 开放模型生态系统 - 公司发布了六大系列开放前沿模型,全部位居各自领域排行榜前列,构成了世界上最大、最多样化的生态系统之一,这些模型全部开源,供开发者下载、微调和部署 [21][23] - 发布的六个模型包括:用于语言和视觉理解的Nemo Tron推理模型(其中Nemo Tron 3 Ultra被称为有史以来最好的基础模型)、用于物理世界生成和理解的Cosmos、首个会思考和推理的自动驾驶基础模型Alpamayo、用于通用机器人的GROOT、用于生物学和分子设计的BioNemo,以及用于天气预报和气候预测的FourCastNet [21] 行业合作与生态建设 - 全球100%的存储行业正在加入公司的存储加速生态,因为未来的存储系统将被AI频繁访问,需要cuDF和cuVS的加速支持 [14] - 公司通过Nemo Tron联盟与多家领先的AI公司合作,共同推进智能体技术的发展 [8]
郭明錤:融入英伟达生态,LPU产量将暴增10倍,对PCB供应链有重大影响
华尔街见闻· 2026-03-17 11:32
英伟达将Groq LPU技术纳入Rubin平台 - 英伟达在GTC大会上宣布推出Nvidia Groq 3 LPU芯片,并将其正式纳入下一代AI数据中心平台Vera Rubin体系,作为核心推理加速组件 [1][2] - Groq 3 LPU成为Rubin平台的第七个核心构建模块,其他六个模块分别是Rubin GPU、Vera CPU、NVLink 6扩展交换机、ConnectX 9智能网卡、Bluefield 4数据处理单元以及Spectrum-X扩展交换机 [2] LPU技术架构与优势 - Groq 3 LPU采用500MB SRAM作为工作内存,与主流AI加速器依赖HBM不同 [3] - 其SRAM带宽高达150TB/s,远超Rubin GPU所配备的HBM4的22TB/s带宽 [3] - 这种超高带宽设计对AI解码等带宽敏感操作具有显著优势,尤其适用于需要大批量、低延迟、高交互性输出的前沿AI模型推理场景 [3] 供应链预测与增长驱动 - 知名分析师郭明錤供应链调查指出,英伟达入股Groq后,LPU出货量预测已大幅上调 [1][4] - 预计2026至2027年LPU合计出货量将达400至500万台,较历史年产量实现约10倍以上的数量级增长 [1][4] - 其中2026年出货量预计占总量的30%至40%,2027年占60%至70% [4] - 增长的核心驱动力有两点:一是LPU与英伟达CUDA生态的深度整合大幅降低了开发门槛;二是AI代理、实时消费端应用及物理AI等超低延迟推理场景需求的快速扩张 [1][5] 机架架构与量产计划 - 英伟达计划将每机架的LPU单元密度从64个提升至256个,以维持超低延迟并应对长上下文推理带来的KV缓存需求扩张 [4] - 采用新架构的机架预计将于2026年第四季度至2027年第一季度进入大规模量产 [4] - 机架出货量预计将从2026年的300至500台,跃升至2027年的15,000至20,000台 [4] 生态整合与技术节点 - LPU需求的快速增长根本上源于其与英伟达生态系统的深度绑定,与CUDA的整合使开发者无需重构现有工作流即可调用LPU算力 [5] - 有三个关键的技术整合节点将决定LPU规模化落地的速度与深度 [5] - 第一是网络架构层面,需关注机架级互连能否通过NVLink Fusion和RealScale实现顺畅对接 [5] - 第二是开发者接口层面,需关注Nvidia NIM能否让开发者在不区分GPU与LPU的情况下直接部署工作负载 [5] - 第三是编译器层面,需关注TensorRT-LLM能否支持LPU的“先编译”架构 [5] 对PCB供应链的影响 - LPU/LPX机架的规模化量产将对PCB供应链产生重大影响 [1][6] - 这代表了M9级CCL(覆铜板)材料的首次大规模商业部署,该材料对制造工艺要求极高,涉及石英玻璃织物处理高层数板的技术突破 [6] - WUS印制电路(WUS Printed Circuit)在这一供应链中扮演关键角色,有望成为核心受益标的 [1][6] - 若LPU/LPX机架顺利放量,不仅将对WUS公司2027年业绩产生实质性贡献,更可能验证其高端制造技术能力,进而催化整个PCB行业开启新一轮增长周期 [6]
黄仁勋抛出万亿美元收入预期
第一财经· 2026-03-17 09:21
新芯片平台与产品发布 - 公司推出全新的Rubin芯片平台,该平台包含7颗芯片(包括首次亮相的Groq 3 LPU)和5个机架,共同构成一台AI超级计算机[5][6] - Groq 3 LPU芯片正在由三星全力生产,计划于今年下半年发货[6] - 平台中的Vera CPU是全球首款专为智能体AI和强化学习打造的处理器,效率是传统机架级CPU的两倍,计划部署于阿里巴巴、字节跳动、Cloudflare等云服务提供商[6] - 采用共封装光学器件的Spectrum-X以太网交换机正在全力生产,其相比传统可插拔光学器件,光功率效率提高5倍,容错能力提高10倍[9] - 集成72个Rubin GPU和36个Vera CPU的Vera Rubin NVL72系统,训练大型混合专家模型所需GPU数量是Blackwell平台的1/4,每瓦推理吞吐量提高10倍,每token成本降低至1/10[9] - 公司已建立供应链,每周可生产数千个Rubin系统,用于吉瓦级数据中心[9] - 公司展示了Rubin之后的下一代架构Rubin Ultra,其新机架将通过新的NVLink连接144个GPU[9] 财务预测与市场机遇 - 公司CEO预测,来自Blackwell和Rubin两大芯片平台的收入,在2025年至2027年间将达到1万亿美元,较一年前对2025-2026年的5000亿美元预测翻倍[10] - 公司收入构成中,60%来自超大规模云服务商,40%来自广泛的AI需求,包括区域云、企业云、工业AI、机器人、边缘AI等[10] - 过去两年,AI工作负载所需的计算需求增加了1万倍[13] - 2024年,AI原生初创企业吸引了约1500亿美元的投资,创下历史记录,投资规模已从数百万美元增长至数亿甚至数十亿美元[13] 战略定位与业务生态 - 公司强调其通过协同设计与垂直整合,实现了全球最低的每token成本,并认为未来每家计算机公司和云厂商都会考虑token生产效率[12] - 公司业务覆盖自动驾驶、金融服务、健康与生命科学、工业、娱乐、量子计算、机器人和电信等多个领域,拥有庞大的上下游生态系统[12] - 在汽车领域,公司宣布新增比亚迪、吉利、五十铃和日产四个客户,共同开发基于DRIVE Hyperion平台的L4级别车辆,并与Uber合作将Robotaxi接入其网络[14] - 公司认为自动驾驶汽车的“OpenAI时刻”已经到来,未来Robotaxi的数量将非常庞大[14] 软件、模型与新兴领域布局 - 公司推出开源模型Nemotron 3系列,并与Cursor、LangChain、Mistral AI等成立Nemotron联盟,共同开发开放式前沿基础模型[15] - 在机器人领域,公司推出Isaac仿真框架、Cosmos和Isaac GROOT等新开源模型,其中Cosmos 3是首个统一合成世界生成、物理AI推理和动作模拟的世界基础模型[15] - 在自动驾驶领域,公司推出用于增强推理能力的视觉动作语言模型Alpamayo 1.5[15] - 在医疗领域,公司推出了用于蛋白质结合剂设计的生成模型Protein-Complexa等基础模型和数据集[15] - 针对智能体应用,公司推出集成Nemotron模型和OpenShell运行环境的NemoClaw软件栈,以提供开放模型和隔离沙箱[15] - 在太空计算领域,公司发布Vera Rubin太空模块,其上的Rubin GPU能为天基推理提供比H100高25倍的AI算力[14]
国泰海通|计算机:英伟达GTC前瞻:聚焦Rubin落地、Feynman前瞻与基础设施重构
文章核心观点 - 本次GTC 2026的核心看点不在于单一芯片参数,而在于英伟达能否通过Rubin平台量产、Feynman架构前瞻以及光互联、供电与液冷一体化升级,推动AI产业从“购买GPU”迈向“部署AI工厂”的新阶段 [1][4] Rubin平台的量产兑现与系统化落地 - Rubin已从单颗GPU产品演变为由CPU、GPU、互联、网络和系统组件构成的集成式AI超算平台,公司正在将AI基础设施的交付单位从板卡提升到整柜系统 [2] - Vera Rubin平台已确认进入量产阶段,本次GTC可能揭晓其强化版Rubin Ultra,一个Rubin Ultra机柜将集成144颗GPU,构建高达1.5PB/s的Scale-up网络 [2] - Rubin平台单颗芯片双向互联带宽达到10.8TB/s,为实现高密度互联,可能采用双层网络拓扑结构,并在机柜内部实现“光进铜退” [2] Feynman架构的前瞻披露 - Feynman架构的披露预计是大会最具战略意义的看点,该架构可能成为首批采用台积电A16工艺的芯片,并首次集成Groq的LPU硬件栈 [3] - Feynman的生产预计在2028年启动,客户出货可能落在2029至2030年,该架构可能引入以SRAM为核心的广泛集成或3D堆叠技术,单芯片功耗预计将突破5000W [3] - Feynman的价值在于向市场阐明公司对后Rubin时代AI计算需求的理解,本次可能以路线图或架构预告方式出现 [3] - 公司可能展示一款整合了Groq“语言处理单元”技术的全新推理芯片,标志着公司正积极布局推理计算领域,旨在满足市场对高效能、低成本计算方案的需求 [3] 光互联、供电与液冷驱动的数据中心基础设施重构 - 在互联层面,CPO与硅光正成为超大规模AI系统的重要方向,数据中心内部将逐步从传统铜互联走向更高带宽密度、更低损耗的光连接体系 [4] - 在供电层面,800V HVDC、高集成模块化供电和垂直供电等方案,反映出未来限制AI系统扩容的关键因素已不仅是芯片制造能力,更是电力能否高效稳定地送达每一个算力节点 [4] - 在散热层面,风冷正失去对超高功耗算力平台的适应性,液冷将越来越从可选方案转向标准配置,并带动冷板、热界面材料和机柜级液冷系统同步升级 [4] 行业影响与展望 - 2026年GTC最值得关注的并非某一颗芯片的参数刷新,而是公司是否会通过Rubin的系统化落地、Feynman的路线图释放以及光互联、供电和液冷一体化升级,正式把行业从“购买GPU”推进到“部署AI工厂”的新阶段 [4]
聚焦Rubin落地、Feynman前瞻与基础设施重构:英伟达GTC前瞻与基础设施重构
国泰海通证券· 2026-03-11 22:11
报告行业投资评级 - 行业投资评级:增持 [1] 报告核心观点 - 本次GTC 2026的核心看点不在于单一芯片参数刷新,而在于英伟达能否通过Rubin平台量产落地、Feynman架构前瞻以及光互联、供电与液冷一体化升级,推动AI产业从“购买GPU”迈向“部署AI工厂”的新阶段 [3] - 2026年GTC最值得关注的并非某颗芯片的参数刷新,而是英伟达是否会通过Rubin的系统化落地、Feynman的路线图释放,以及光互联、供电和液冷一体化升级,正式把行业推进到“部署AI工厂”的新阶段 [6][28] 根据目录总结 1. Rubin平台的量产兑现与系统化落地 - Rubin平台已不再只是单颗GPU产品,而是由CPU、GPU、互联、网络和系统组件共同构成的集成式AI超算平台,其核心目标是通过系统级整合降低token成本,并压缩大规模MoE训练和推理所需的GPU占用规模 [6][10] - 英伟达正在把AI基础设施的交付单位从板卡提升到整柜系统,市场关注点正从单卡参数转向机柜级和机架级形态,如NVL72、NVL144和NVL576等rack-scale配置 [6][11] - 随着Vera Rubin平台在CES 2026上确认进入量产阶段,本次GTC很可能揭晓其强化版——Rubin Ultra,一个Rubin Ultra机柜将集成144颗GPU,构建高达**1.5PB/s**的Scale-up网络,单颗芯片双向互联带宽达到**10.8TB/s** [6][15] - 为实现高密度互联,Rubin或将采用双层网络拓扑结构,并在机柜内部实现“光进铜退” [6][16] - Rubin平台开始推动推理基础设施从统一GPU池走向更细分的分层优化,例如Rubin CPX被定义为面向massive-context inference的GPU类别,Vera Rubin NVL144 CPX单机柜可实现约**8 exaflops** AI性能、**100TB** fast memory以及**1.7PB/s**带宽 [18] 2. Feynman架构的前瞻披露与后Rubin时代的推理路线 - Feynman架构的前瞻披露预计将构成大会最具战略意义的看点,其价值在于向市场说明英伟达如何理解后Rubin时代的AI计算需求 [6][19] - Feynman可能成为首批采用台积电A16工艺的芯片,并首次集成Groq的LPU硬件栈,其生产预计在2028年启动,客户出货可能落在2029至2030年 [6][20] - Feynman可能引入以SRAM为核心的广泛集成或3D堆叠技术,单芯片功耗预计将突破**5000W** [6][20] - 英伟达可能会展示一款整合了Groq“语言处理单元”技术的新推理芯片,旨在满足市场对高效能、低成本推理方案的需求,Groq LPU路径更适合实时语音、交互式Agent等对响应时间高度敏感的场景 [6][21][23] 3. 光互联、供电与液冷共同驱动的数据中心基础设施重构 - 在互联层面,CPO与硅光正成为超大规模AI系统的重要方向,未来数据中心内部将逐步从传统铜互联走向更高带宽密度、更低损耗的光连接体系 [6][25] - 本届GTC被视为CPO商业化落地的关键里程碑,Rubin Ultra被普遍视为“光入柜内”的关键节点,光互联将进入机柜内部和scale-up路径 [25] - 在供电层面,Rubin单芯片功耗将超过**2000W**,Feynman目标功耗将超过**5000W**,800V高压直流供电被视为未来主电源的重要发展方向 [6][26] - 在散热层面,风冷正失去对超高功耗算力平台的适应性,液冷将从可选方案转向标准配置,并带动冷板、热界面材料和机柜级液冷系统同步升级 [6][27] - 液冷技术迭代重点指向散热材料和热界面材料升级,例如冷板从传统铜材升级到铜合金甚至金刚石相关材料,热界面材料方面液态金属和金刚石散热片是重要方向 [27]
GTC大会开幕在即,芯片ETF(159995)分化调整,聚焦英伟达新品预期
新浪财经· 2026-03-06 10:40
市场行情与板块表现 - 3月6日开盘后A股三大指数集体调整,上证指数盘中下跌0.26% [1] - 医药生物、环保、基础化工等板块涨幅靠前,石油石化、通信板块跌幅居前 [1] - 芯片科技股出现分化,截至9:47,芯片ETF(159995.SZ)下跌0.16% [1] 芯片ETF成分股具体表现 - 芯片ETF部分成分股上涨,圣邦股份上涨2.88%,华海清科上涨2.06%,三安光电上涨1.61%,华大九天上涨0.84% [1] - 芯片ETF部分成分股表现不佳,长电科技下跌2.63%,格科微下跌2.11% [1] - 芯片ETF跟踪国证芯片指数,其30只成分股集合了A股芯片产业材料、设备、设计、制造、封装和测试等环节的龙头企业,包括中芯国际、寒武纪、长电科技、北方华创等 [2] 行业事件与前景展望 - 英伟达GTC2026大会将于3月16日至19日在美国加州圣何塞举办,是AI与加速计算领域的标杆盛会 [1] - 本次大会预计发布代号为Feynman的下一代AI芯片架构,是市场最受关注的算力迭代重磅新品,随着大会临近,市场对新技术预期与投资情绪持续升温 [1] - 东海证券指出,英伟达2026财年业绩继续超市场预期,数据中心持续贡献核心增长动力,其发布的Rubin平台显著降低了推理token成本 [1] 电子与存储芯片行业动态 - 当前电子行业需求持续复苏,供给有效出清,存储芯片价格上涨,国产化力度超预期 [1] - 全球存储器产业已转向卖方市场,2026年价格涨势预计贯穿全年,DRAM与NAND供应紧张 [1]
英伟达豪掷40亿美元,在布局什么?丨每日研选
上海证券报· 2026-03-06 09:35
英伟达投资光模块上游的战略意义 - 英伟达宣布分别向Lumentum和Coherent各注资20亿美元,总计40亿美元,以锁定未来先进光学元件的产能与技术使用权,投资包含数十亿美元的采购承诺 [1] - 此次战略性投资直接目的是保障上游供应链稳定性,以满足市场对更快AI处理器日益增长的需求 [1] - 重金投入上游“光”环节,印证了光通信技术将成为未来AI数据中心互联的核心技术,并凸显了上游供应链的重要性 [1] 下一代AI数据中心互联的技术趋势 - 随着AI模型向万卡、十万卡集群演进,传统数据中心内部互联技术遭遇瓶颈,功耗更低、传输效率更高的光互联技术成为必然选择 [1] - 从英伟达下一代产品路线图看,Rubin平台将有多款CPO交换机可供选择,而将于2027年推出的Rubin Ultra或将采用Kyber机柜架构 [2] - 关于CPO/NPO在柜内应用的预期行情可能在2026年就会显著体现,光I/O技术将迎来全面渗透 [2] 高速率光模块的市场前景与需求 - 随着海外头部云厂商持续加强资本开支,CPO技术的研发突破和在柜内的应用渗透,有望进一步带动高速率光模块的需求 [2] - LightCounting近期上调了800G光模块出货量预期,并预计1.6T光模块出货量将从2025年的小基数增长至2026年的数千万端口 [2] 机构建议的产业链投资主线 - 主线一是受益于行业整体需求爆发的核心光模块及器件厂商,包括中际旭创、新易盛、天孚通信、源杰科技等 [3] - 主线二是聚焦光技术升级的新方向,包括硅光设备及光互联领域的“四小龙”,如罗博特科、致尚科技、炬光科技、杰普特等 [3] - 在柜内光无源器件和光纤光缆环节具备潜力的公司包括太辰光、仕佳光子和亨通光电等 [3]