NVLink 6交换机
搜索文档
英伟达GTC“算力无限”宣言背后:芯片互连革命开启,科创芯片ETF国泰(589100)如何卡位“互连”新赛道?
新浪财经· 2026-03-23 15:11
行业核心趋势:AI算力瓶颈从“算”转向“连” - 英伟达CEO黄仁勋预测,到2027年AI芯片需求将达到至少1万亿美元,较去年预测翻倍[1] - 产业共识认为AI算力发展瓶颈已从“算”转向“连”,芯片互连成为AI时代核心赛道[1] - 传统铜缆电互连在单通道400G SerDes速率下,有效传输距离被限缩在1米内,无法支撑AI集群跨机柜扩展[1] 技术解决方案:光互连成为新底座 - 英伟达发布NVLink 6交换机等产品以突破“I/O墙”,其中NVLink 6支持单通道400G SerDes,单颗GPU带宽极限达3.6TB/s[2] - 在OFC 2026大会上,由Arista牵头的XPO MSA等组织成立,聚焦超大规模AI数据中心互连需求[1] - XPO MSA定义了液冷可插拔光模块形态,提供业界最高12.8Tbps容量,已有60多家企业参与[1] 产业链覆盖:上证科创板芯片指数 - 上证科创板芯片指数从科创板上市公司中筛选不超过50家芯片全产业链龙头企业,成分股100%来自芯片产业链[3] - 指数前十大权重股合计覆盖关键环节:半导体设备(中微公司7.63%、拓荆科技3.08%、华海清科2.37%)、晶圆制造(中芯国际8.36%、华虹公司2.55%)、芯片设计(海光信息10.07%、寒武纪7.08%、澜起科技9.25%等)[3] - 前十大权重股中,互连相关环节的龙头企业合计占比超过55%[3] 投资工具:科创芯片ETF国泰(589100) - 科创芯片ETF国泰紧密跟踪上证科创板芯片指数,为投资者提供标准化工具[4] - 截至2026年3月16日,该基金近2月跟踪误差仅0.007%,跟踪精度表现优异[5] - 根据2025年第四季度报告,基金前十大持仓中,重资产环节合计占比25.35%,轻资产环节合计占比32.37%,形成均衡配置[6] - 基金年管理费率0.50%,年托管费率0.10%,场内交易活跃[7] 投资逻辑深化:从算力芯片到互连底座 - 互连技术是AI集群刚需,需求增长更平滑、持续,英伟达对2027年1万亿美元AI芯片需求的预测直接拉动了互连相关设备与材料的需求预期[8] - 光芯片、高速PCB等环节国产化率仍低,国产替代空间大,国内光芯片厂商索尔思2025年上半年营收同比增长109%,净利润激增581%[8] - 互连赛道景气度正走向业绩兑现,中国台湾PCB厂商2026年开年营收同比增长29.77%,光模块上游设备订单饱满[8]
云厂商破天荒涨价,未来一年算力供给会改善吗?| Jinqiu Select
锦秋集· 2026-03-20 23:00
行业核心观点 - 2026年全球云计算行业出现集体涨价,打破了近二十年的降价惯例,主要原因是全球AI需求爆发和核心硬件成本显著上涨 [1] - 云厂商涨价潮的本质是算力正从基础设施转变为稀缺资源,AI创业团队面临算力资源被大规模云服务商锁定、小型团队难以批量获取的局面 [2] - 当前的算力短缺是结构性的产能短缺,而非周期性供需波动,这导致算力从“成本项”转变为关乎产品节奏、商业模式乃至公司生死的“战略资源” [3][4] - 在算力成为战略资源的背景下,能够在正确时间窗口锁定足够算力的公司将在竞争中占据先手,而对供给侧瓶颈缺乏认知则可能在关键增长节点遭遇“有需求、无资源”的困境 [5][6] 云厂商涨价与算力资源现状 - 2026年1月,AWS率先对GPU训练实例上调约15%,谷歌云随即宣布数据传输服务最高涨价100% [1] - 2026年3月,国内云厂商密集跟进:腾讯云率先上调自研大模型价格,涨幅最高达463%;阿里云与百度智能云宣布AI算力及存储产品涨价,最高涨幅34% [1] - 超大规模云服务商的集群资源已被牢牢锁定,小型团队几乎无从批量获取 [2] - 云服务厂商2026年数据中心资本支出预期较一年前大幅增长甚至翻倍,但仍被市场认为“不够用” [2] 算力供给侧的瓶颈分析 - 当前算力瓶颈已彻底进入硅芯片短缺阶段,先进的逻辑和存储器制造能力不足以支撑计算部署的步伐 [19] - 台积电N3逻辑晶圆产能是当前最大的制约因素之一,其产能扩张未能跟上AI需求的激增 [22][37] - 到2026年,所有主流AI加速器系列(包括英伟达、AMD、谷歌TPU、AWS Trainium、Meta MTIA)都将过渡到台积电N3系列工艺节点,AI将成为N3需求的主要来源 [28][29][30][31] - 2026年,人工智能相关应用(加速器、主机CPU和网络N3芯片)的需求将占N3芯片总产量的近60% [45] - 全球内存短缺问题短期内难以缓解,HBM高带宽内存供应紧张是下一个主要制约因素 [61] - HBM消耗的晶圆产能约为普通DRAM的三倍,随着向HBM4过渡,这一差距可能扩大到近四倍,挤占了普通DRAM的产能 [61] - 客户对更高HBM引脚速度(如约11 Gb/s)的需求进一步限制了HBM的有效供应,因为内存厂商难以以可接受的良率大规模交付 [68] - CoWoS先进封装的限制有所缓解,前端晶圆(如N3)供应成为主要瓶颈 [79] - 过去几年,数据中心和电力是主要瓶颈,但当前预测显示电力供应将超过AI计算需求,加速器硅的供应已成为主要制约因素 [81] 供应链竞争与厂商策略 - 在N3晶圆产能争夺中,人工智能基础设施客户的优先级明显高于消费电子产品客户,因为AI加速器设计带来更高的平均售价,且AI驱动的需求是台积电增长的主要动力 [51] - 由于需求远超供应,预计到2026年下半年,台积电N3工艺的有效利用率将超过100% [52] - 台积电受到洁净室空间的限制,未来两年内无法新增足够产能来完全满足市场需求 [52] - 产能限制可能促使客户寻求更广泛的晶圆代工模式,例如转向英特尔或三星晶圆代工 [40] - 英伟达在供应链控制上准备最充分,其通过提前锁定大部分逻辑晶圆、内存等组件供应成为主要受益者,例如2025年的韩国之行旨在确保内存供应 [85] - 最终能够获得最多硅供应的供应商将占据最大的计算部署份额 [85] 潜在的需求转移与产能再分配 - 智能手机是2026年N3晶圆需求的第二大驱动力,但也可能成为需求疲软的领域,从而释放产能用于AI加速器 [58] - 智能手机需求预期可能被下调至同比两位数的低位下滑 [58] - 如果将2026年智能手机N3晶圆总开工量的5%(43.7万片晶圆的5%)重新分配给AI加速器,则可额外生产约10万颗Rubin GPU或约30万颗TPU v7 [58] - 在更极端情况下,如果将25%的智能手机N3晶圆重新分配,则可额外生产约70万颗Rubin GPU或约150万颗TPU v7 [58] - 在消费级设备出货量下降的背景下,部分内存可能从消费级应用重新分配到服务器和HBM [76] - 在消费级内存出货量下滑10-15%的基本预测下,释放的容量增量(约占DRAM总需求的3%)不足以实质性改变整体供需格局 [78] 市场需求与增长数据 - Token需求呈爆炸式增长,推动了对人工智能计算的持续加速需求 [16] - 仅在2026年2月,Anthropic就新增了高达60亿美元的年度经常性收入,主要得益于智能体编码平台Claude Code的广泛应用 [16] - 超大规模云服务提供商的资本支出计划大幅调整,其中谷歌2026年的资本支出预期几乎是此前预期的两倍 [17] - 从H100到Rubin,以及从MI300到MI400等,AI加速器的HBM容量在快速提升(如提升50%甚至4倍),驱动了HBM位出货量的急剧变化 [66] - NVIDIA下一代平台的AI服务器系统内存将大幅增长,VR NVL72机架的DDR内存容量将是Grace的三倍 [71] - 2026年DRAM的整体位需求预计将出现增长,同时AI工作负载正在推动CPU需求,并逐步提高CPU与GPU的比例 [71]
黄仁勋抛出万亿美元收入预期
第一财经· 2026-03-17 09:21
新芯片平台与产品发布 - 公司推出全新的Rubin芯片平台,该平台包含7颗芯片(包括首次亮相的Groq 3 LPU)和5个机架,共同构成一台AI超级计算机[5][6] - Groq 3 LPU芯片正在由三星全力生产,计划于今年下半年发货[6] - 平台中的Vera CPU是全球首款专为智能体AI和强化学习打造的处理器,效率是传统机架级CPU的两倍,计划部署于阿里巴巴、字节跳动、Cloudflare等云服务提供商[6] - 采用共封装光学器件的Spectrum-X以太网交换机正在全力生产,其相比传统可插拔光学器件,光功率效率提高5倍,容错能力提高10倍[9] - 集成72个Rubin GPU和36个Vera CPU的Vera Rubin NVL72系统,训练大型混合专家模型所需GPU数量是Blackwell平台的1/4,每瓦推理吞吐量提高10倍,每token成本降低至1/10[9] - 公司已建立供应链,每周可生产数千个Rubin系统,用于吉瓦级数据中心[9] - 公司展示了Rubin之后的下一代架构Rubin Ultra,其新机架将通过新的NVLink连接144个GPU[9] 财务预测与市场机遇 - 公司CEO预测,来自Blackwell和Rubin两大芯片平台的收入,在2025年至2027年间将达到1万亿美元,较一年前对2025-2026年的5000亿美元预测翻倍[10] - 公司收入构成中,60%来自超大规模云服务商,40%来自广泛的AI需求,包括区域云、企业云、工业AI、机器人、边缘AI等[10] - 过去两年,AI工作负载所需的计算需求增加了1万倍[13] - 2024年,AI原生初创企业吸引了约1500亿美元的投资,创下历史记录,投资规模已从数百万美元增长至数亿甚至数十亿美元[13] 战略定位与业务生态 - 公司强调其通过协同设计与垂直整合,实现了全球最低的每token成本,并认为未来每家计算机公司和云厂商都会考虑token生产效率[12] - 公司业务覆盖自动驾驶、金融服务、健康与生命科学、工业、娱乐、量子计算、机器人和电信等多个领域,拥有庞大的上下游生态系统[12] - 在汽车领域,公司宣布新增比亚迪、吉利、五十铃和日产四个客户,共同开发基于DRIVE Hyperion平台的L4级别车辆,并与Uber合作将Robotaxi接入其网络[14] - 公司认为自动驾驶汽车的“OpenAI时刻”已经到来,未来Robotaxi的数量将非常庞大[14] 软件、模型与新兴领域布局 - 公司推出开源模型Nemotron 3系列,并与Cursor、LangChain、Mistral AI等成立Nemotron联盟,共同开发开放式前沿基础模型[15] - 在机器人领域,公司推出Isaac仿真框架、Cosmos和Isaac GROOT等新开源模型,其中Cosmos 3是首个统一合成世界生成、物理AI推理和动作模拟的世界基础模型[15] - 在自动驾驶领域,公司推出用于增强推理能力的视觉动作语言模型Alpamayo 1.5[15] - 在医疗领域,公司推出了用于蛋白质结合剂设计的生成模型Protein-Complexa等基础模型和数据集[15] - 针对智能体应用,公司推出集成Nemotron模型和OpenShell运行环境的NemoClaw软件栈,以提供开放模型和隔离沙箱[15] - 在太空计算领域,公司发布Vera Rubin太空模块,其上的Rubin GPU能为天基推理提供比H100高25倍的AI算力[14]
CES2026:英伟达六大芯片协同升级,算力+存力迈入新纪元
信达证券· 2026-01-11 23:04
行业投资评级 - 看好 [2] 报告核心观点 - 英伟达在CES 2026正式发布Rubin平台,标志着AI算力进入新纪元,全球算力设施向“AI工厂”范式全面转型 [2][3] - Rubin平台通过六大芯片的协同设计,实现了推理性能的大幅提升和成本的显著下降 [2][7] - 报告认为,Rubin平台的升级将带动算力、存储、PCB、机架等多个产业链环节价值量显著提升,相关核心环节在基建投资化趋势下具备较大成长空间 [3][39] 根据相关目录分别总结 Vera Rubin:六大芯片协同升级,推理性能大幅提升 - 英伟达于CES 2026发布Rubin平台,该平台由Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU和NVIDIA Spectrum-6以太网交换机六款全新芯片组成,通过协同设计旨在大幅缩短训练时间并降低推理token成本 [2][7] - 平台的旗舰产品是Vera Rubin NVL72机架级系统,其设计目标是实现可预测的延迟、高利用率及高效的电力转化 [7] 算力:NVFP4推理性能提升5倍,推理成本显著下降 - Vera CPU拥有88个定制Olympus核心,系统内存达1.5TB,是Grace CPU的3倍,数据处理性能翻倍提升 [12] - Rubin GPU引入Transformer引擎,其NVFP4推理性能高达50 PFLOPS,是Blackwell GPU的5倍;NVFP4训练性能达到35 PFLOPS,是Blackwell的3.5倍 [2][13] 存储:针对大量KV Cache问题,推出推理上下文内存存储平台 - Rubin GPU集成新一代HBM4,每个GPU最高配备288GB,总内存带宽提升至22 TB/s,是Blackwell的2.8倍 [14][20] - 每个Vera CPU搭载最高1.5TB的LPDDR5X内存,带宽达1.2 TB/s,并通过第二代NVLink-C2C与GPU实现1.8 TB/s的一致性带宽,形成统一内存池 [17] - 平台引入由BlueField-4 DPU驱动的NVIDIA推理上下文内存存储,用于存储KV Cache,该架构可将每秒tokens数提升高达5倍,并实现高达5倍的能效提升 [2][18] - 每个存储节点配置4个BlueField-4 DPU,每个DPU背后有150TB上下文NAND,分配到每块GPU上额外获得16TB NAND,带宽保持200 Gbps [18] PCB:从Cable Tray到Cableless互联,PCB价值量显著提升 - Rubin NVL72采用cableless无缆互联架构,通过PCB板直接传输信号,取代了上一代Blackwell NVL72的复杂线缆连接 [22] - 这种机械简化使组装速度比上一代托盘架构快18倍,并显著缩短了现场维护服务时间,降低了部署和运营成本 [2][22] Rack:系统协同设计显著提升,ODM环节核心受益 - NVIDIA DGX SuperPOD作为大规模AI工厂部署蓝图,采用8套DGX Vera Rubin NVL72系统,并通过极致协同设计大幅降低训练与推理成本 [25] - 与上一代Blackwell相比,训练相同规模的MoE模型仅需1/4的GPU数量;在相同延迟下,大型MoE模型的token成本降低至1/10 [25] 开源模型:从数据到代码全覆盖,Nemotron 3重构Agentic AI范式 - 英伟达扩展其开源模型生态,覆盖生物医学AI、AI物理模拟、Agentic AI、物理AI、机器人和自动驾驶六大领域 [2][29] - Nemotron系列是更新重点,覆盖推理、RAG、安全和语音四个应用方向,提供了包括小型化推理模型、强化学习工具、向量嵌入模型、内容安全模型及语音处理库等一系列工具 [2][32] 物理AI:从Cosmos到Alpamayo,走向商业化落地 - 在物理AI领域,英伟达更新了视频理解与生成模型Cosmos、机器人基础模型Isaac GR00T以及自动驾驶视觉-语言-行动模型Alpamayo [2][33] - Cosmos是一个开源的世界基础模型,能用海量视频、驾驶与机器人数据及3D模拟进行预训练,具备生成内容、推理和预测轨迹等能力 [33] - Alpamayo是面向自动驾驶领域的开源工具链,也是首个开源的视觉-语言-行动推理模型,其突破在于引入了“推理”能力,能理解复杂场景的因果关系并做出多步决策 [34] 投资建议 - 报告建议关注四大方向的投资机会 [3][40] - 海外AI产业链:包括工业富联、沪电股份、鹏鼎控股、胜宏科技、生益科技、生益电子等 [40] - 国产AI产业链:包括寒武纪、芯原股份、海光信息、中芯国际、深南电路等 [40] - 存储产业链:包括德明利、江波龙、兆易创新、聚辰股份、普冉股份等 [40] - SoC产业链:包括瑞芯微、乐鑫科技、恒玄科技、晶晨股份、中科蓝讯等 [40]
首款HBM4 GPU,全面投产
半导体行业观察· 2026-01-06 09:42
英伟达下一代AI芯片Rubin与Vera CPU发布 - 英伟达在CES 2026期间宣布,其下一代Rubin AI芯片已“全面投产”,并将于2026年下半年上市 [1] - 公司同时正式发布了下一代AI数据中心机架级架构Vera Rubin,由Vera CPU、Rubin GPU等六种芯片协同设计而成 [6] - 首席执行官黄仁勋强调,公司必须每年推进计算技术进步,并计划每年推出新一代人工智能超级计算机 [1][3] Rubin GPU性能规格与提升 - Rubin GPU的推理计算性能是Blackwell的5倍,训练计算性能是Blackwell的3.5倍 [2] - 在处理NVFP4数据时,Rubin可提供50 petaflops的推理性能,而Blackwell最高为10 petaflops [2] - Rubin的训练速度提升了250%,达到35 petaflops [2] - 与Blackwell相比,Rubin的推理令牌成本最多可降低10倍,训练令牌成本最多可降低四分之一 [2][10] - Rubin架构包含3360亿个晶体管,并集成了新一代HBM4内存,数据传输速度高达每秒22 TB,是Blackwell的2.8倍 [2][3][11] - 每个Rubin GPU配备8个HBM4显存堆栈,提供288GB容量和22 TB/s带宽 [7] - Rubin的Transformer Engine基于新设计,具备硬件加速自适应压缩功能以提升性能 [2] Vera CPU性能规格 - Vera CPU采用88个定制的Olympus Arm核心,并支持“空间多线程”技术,可同时运行多达176个线程 [8][12] - 每个Vera CPU可寻址高达1.5 TB的LPDDR5X内存,内存带宽高达1.2 TB/s,容量是上一代Grace的三倍 [8][12] - 用于连接Vera CPU与Rubin GPU的NVLink C2C互连带宽翻倍,达到1.8 TB/s [8] 系统级产品与扩展方案 - Vera Rubin NVL72机架可集成36个Vera CPU和72个Rubin GPU [12] - 该机架配备9个NVLink 6交换机,总纵向扩展带宽可达260 TB/s,每个交换机拥有28 TB/s带宽,每个GPU的交换矩阵带宽提升至3.6 TB/s [7] - 公司还发布了用于横向扩展的高速网络新产品,包括ConnectX-9 SuperNIC、BlueField-4 DPU和集成了光模块的Spectrum-6以太网交换机 [8][13] - 推出了“DGX SuperPOD with DGX Vera Rubin NVL72”,由八块Vera Rubin NVL72组成,可使用256个Vera CPU和512个Rubin GPU [14] - 面向OEM厂商的设计包括“HGX Rubin NVL8”(集成八个Rubin模块)和专为x86处理器设计的“DGX Rubin NVL8” [13] 生产、上市与合作伙伴 - Rubin系列芯片已经“全面投产”,并将于2026年下半年提高产量 [3] - 微软Azure和CoreWeave将成为首批在2026年下半年提供由Rubin支持的云计算服务的公司之一 [3] - Vera和Rubin将通过四大云服务提供商(AWS、谷歌云、微软Azure和Oracle云基础设施)以及戴尔科技、HPE、联想和超微等OEM提供 [14] - OpenAI、Anthropic和Meta等人工智能模型开发公司已经宣布了他们的采用计划 [14] 市场背景与公司展望 - 黄仁勋表示,即使没有中国或其他亚洲市场,公司预计到2026年,其最先进的Blackwell AI芯片和Rubin的“早期产能提升”也将带来5000亿美元的收入 [5] - 公司认为人工智能的未来将主要体现在物理世界中,并在CES上宣布与比亚迪、LG电子和波士顿动力公司等制造商、机器人制造商和汽车制造商达成合作 [5] - 黄仁勋称“机器人领域的ChatGPT时刻已经到来”,物理人工智能的突破正在解锁全新应用 [5] 行业面临的挑战 - 整个行业正陷入零部件短缺困境,尤其是尖端DRAM内存,全球只有美光、SK海力士和三星三家公司能够生产 [16][17] - DRAM短缺可能导致英伟达五年来首次在CES上未发布新的消费级GPU,打破了连续五年发布新款GPU的惯例 [15][16] - 对通用人工智能(AGI)的渴求促使公司制定了超出当前供应链承载能力的计算目标,AI客户愿意支付更高利润进一步加剧了消费级市场的供应紧张 [17]