NVLink Switch
搜索文档
黄仁勋:龙虾就是新操作系统,英伟达7种芯片拼出算力怪兽,放话2027营收万亿美元
36氪· 2026-03-17 15:27
GTC 2026会议核心观点 - 英伟达GTC 2026大会规模空前,有450家企业赞助、1000场技术分会、2000位演讲者、110台机器人,标志着其已成为AI行业的年度盛会[1] - 公司通过回顾25年发展历程,系统阐述了从游戏显卡到当前AI算力与token经济的演进逻辑,核心论点是AI从感知、生成、推理到执行的每一步都将生成更多token并消耗更多算力,从而驱动巨大的算力需求[4] - 公司宣布,基于Blackwell和Rubin平台到2027年的订单,其预计营收至少将达到1万亿美元,这一数字较去年GTC上提出的5000亿美元高确信需求翻倍,且公司认为实际需求会更高[4] 公司财务与市场预期 - 公司预计到2027年营收至少达到1万亿美元,该预测覆盖Blackwell和Rubin平台到2027年的订单[4] 新一代AI计算系统:Vera Rubin - Vera Rubin是英伟达有史以来最复杂的AI计算系统,采用7种芯片、5种机架垂直集成,包含Rubin GPU、Vera CPU、Groq LP30、BlueField 4 DPU、CX9网卡、NVLink Switch及Spectrum X CPO交换机[15] - Rubin GPU采用全新架构,支持NVLink 72全互联,提供3.6 exaflops算力及260TB/s全对全带宽[15] - Vera CPU采用LPDDR5,单线程性能和能效比出色,已发展成一项价值数十亿美元的业务[15] - 系统采用100%液冷方案,互联在液冷模块内部做板级/背板式集成,使机架安装时间从两天缩短至两小时[21][22] - 采用共封装光学(CPO)技术,通过CoUP封装工艺将光学器件直接封装到芯片上,以突破传统铜缆的物理限制,实现更高能效和更远传输[24][25][26] - 在同一座1GW数据中心中,从Grace Blackwell到Vera Rubin + Groq,token生成速率从200万/秒提升至7亿/秒,两年提升350倍,远超摩尔定律同期约1.5倍的提升[20] 芯片性能与“Token工厂”经济学 - 公司提出“Token工厂”商业模型,以每瓦token吞吐量(产能)和每秒token生成速率(AI“聪明程度”)为核心指标,并划分了从免费层到顶级层($150/百万Token)的四个服务层级[9] - Grace Blackwell NVLink 72的每瓦token吞吐量比上一代Hopper H200高出50倍[11] - 每瓦性能是决定token成本的关键,在固定功率的数据中心内,更高的每瓦token产出意味着更低的成本[12] - Vera Rubin平台的目标是将每瓦token吞吐量在下一代基础上再提高2-10倍[12] 推理架构创新:GPU与Groq LPU协同 - 公司通过收购Groq获得LPU(语言处理单元)技术,其采用确定性数据流处理器架构,拥有500MB片上SRAM,专为推理设计[16][29] - 公司采用分离式推理架构,通过Dynamo推理框架将计算任务拆分:Pre-fill和attention计算量大,交给Vera Rubin处理;decode阶段对延迟敏感,则卸载给Groq LPU[33] - 该协同方案在最高价值的推理层级上,可再提升35倍吞吐量,并解锁了每秒千token级别的极速生成能力[35] - 公司建议,对于高吞吐工作负载可使用100% Vera Rubin;若有大量编程、工程级token生成需求,可将25%的数据中心功率分配给Groq[35] - Groq 3芯片由三星代工,已量产并预计Q3出货;Vera Rubin首个机架已在微软Azure云上运行[35] 下一代计算平台与未来展望 - 公司预告了下一代计算架构Feynman(费曼),将带来全新的GPU、LPU(LP40)和CPU Rosa,以及BlueField 5 DPU和SuperNIC CX10[47] - Feynman将通过Kyber技术首次同时支持铜线与光学封装的水平扩展,核心突破在于提供更高的容量与带宽[47] - 公司正与合作伙伴联合开发名为“SpaceOne”的太空数据中心计算机,旨在解决太空中的辐射散热问题,拓展“太空算力”[47][49][50] - 公司强调计算架构将每年更新[44] 软件生态与Agent时代 - 公司将OpenClaw定义为AI Agent时代的操作系统,类比Windows之于PC、Linux之于服务器,认为其开源了Agent计算机的操作系统[38][40] - OpenClaw具备资源管理、调度系统和多模态I/O能力,能调用大模型、访问文件系统、使用工具并执行自动化任务[38][40] - 公司断言,每家SaaS公司都将转变为Agent-as-a-Service公司,企业IT逻辑即将被改写[40] - 针对企业安全需求,公司与OpenClaw合作推出企业版NeMo Claw,增加了策略引擎、网络护栏和隐私路由器[42] - 公司描绘未来企业场景:工程师将拥有年度Token预算,其价值可达年薪的一半,Token额度已成为硅谷招聘的新筹码[44]
超节点与Scale up网络行业报告:谷歌、AMD、国产超节点持续发力,打破英伟达独大格局
搜狐财经· 2026-03-06 09:55
文章核心观点 超节点与Scale-up网络是支撑万亿级大模型与高实时性应用的关键基础设施,正处于快速发展期,并将成为算力芯片、网络部件、存储部件、供电散热等新兴技术的重要应用市场[2]。英伟达、谷歌、AMD和华为四家头部AI算力芯片厂商在该领域各有布局,行业格局正从英伟达一家独大向多元化竞争演变[2]。 根据相关目录分别进行总结 1. 超节点与Scale-up网络概述 - 大语言模型参数规模向万亿级演进,驱动对高带宽、低延迟网络的需求,构建Scale-up网络(纵向扩张网络)成为主流技术路径[23] - Scale-up网络旨在在一定成本和技术约束下实现超高带宽互联,其特点包括:算力规模为数十卡至千卡级、资源利用率80%以上、通信延迟为百纳秒级、支持统一内存访问,但定制化程度高[26][27][28] - 超节点主要由计算节点、交换节点和Scale-up网络互联构成,其互联方案(铜缆或光纤)直接影响系统的功耗、成本、规模和可靠性[29] - 目前主流互联方案分为两类:铜缆互联(如英伟达方案)具有功耗低、成本低、可靠性高的优势,但受距离限制,单个节点规模较小(如最大支持72张XPU卡);光纤互联(如华为方案)突破距离限制,节点规模更大(如支持384张XPU卡),但存在光模块功耗大、成本高、故障率高的短板[32] 2. 英伟达:领先优势建立在NVLink和NVLink Switch - 英伟达在超节点技术方案上处于领先地位,2024-2025年陆续推出GH200 NVL72、GB200/GB300 NVL72等成熟解决方案,预计2025年GB200/300 NVL72出货量约2800台[4] - 展望2026-2027年,英伟达计划推出Vera Rubin NVL144和Rubin Ultra NVL576,互联GPU数量将从72颗向576颗发展,并计划发布引入NVLink Switch Blade的新一代Kyber机架[4] - 英伟达超节点的核心优势在于NVLink和NVLink Switch技术,NVLink 5 Switch支持单GPU到GPU带宽1800GB/s,可构建72 GPU的NVLink域,总带宽达130 TB/s(双向)[5] - 后续NVSwitch Gen6和Gen7的GPU-to-GPU通信带宽将继续升级至3.6TB/s[5] - 然而,Scale-up网络的发展空间可能受限于AI产业探索降低张量并行与专家并行规模的技术方案,这或将限制英伟达的领先优势,未来实现Scale-up网络和Scale-out网络融合可能成为其新趋势[5] 3. 华为:对外开放灵衢互联协议,性能追赶英伟达 - 华为推出自研的灵衢互联协议,并从2.0版本起转向开放标准,但该协议尚未被国内业界广泛接受[6] - 国内Scale-up协议尚未统一,除华为灵衢外,还有中移OISA、腾讯ETH-X、高通量以太网ETH+以及中兴通讯OLink等多种互联协议在探索中,工信部正牵头推动CLink协议旨在形成统一国内标准[6] - 华为通过集群化方式实现性能追赶,其Atlas 950超节点预计2026年第四季度发布,总算力达到8 EFLOPS(FP8),超过同期英伟达NVL144的2.52 EFLOPS(FP8)[6] - Atlas 950超节点在内存容量(1152TB)与互联带宽(16.3PB/s)上也实现大幅领先[7] - 华为超节点技术仍在标准化阶段,Atlas 950放弃了全光互联架构,采用“柜内正交铜互联+柜间光互联”的混合设计,以平衡可靠性、成本、功耗和可扩展性[7] 4. 谷歌:建立光互联超节点,形成不对称竞争 - 谷歌TPU超节点建立了成熟的光互联Scale-up网络,技术路线独树一帜,其核心是光电路交换机[8] - 谷歌是全球首个将光电路交换机大规模商用部署于Scale-up网络的企业,该技术涉及精密光学、机械工程与半导体工艺的深度交叉,构筑了高技术壁垒[8] - 光电路交换技术具备优势:可跨多代光收发模块技术复用、每比特能耗较电分组交换机低数个数量级、引入的时延极小[9] - 2023-2025年谷歌陆续推出TPU v4、v5p、v7三代超节点,完成了技术路线探索和标准化,TPU v7已获得外部企业认可,例如Anthropic将在2026年直接从博通采购近100万颗TPU v7 Ironwood AI芯片[8] - 2027年,谷歌将推出第8代TPU,对标英伟达Vera Rubin,届时其超节点性能指标将进一步优化提升[8] 5. AMD:UALink成为重要开放标准,是有力竞品 - AMD作为Scale-up网络开放技术路线方,其主导的UALink成为重要开放标准,2025年1.0版本规范正式发布,2026年有望发布2.0版本[10] - UALink联盟受到业内广泛支持,截至2026年1月底,成员单位超过100家,预计其生态将在2027年迎来突破发展,被众多数据中心接纳,成为英伟达NVLink的有力挑战者[10] - AMD超节点Helios机架采用双宽机架设计,在复杂性、可靠性和性能间实现良好平衡,是目前业界最能挑战英伟达NVL72机柜的竞品之一[10] - 在功耗领域,Helios机架对比英伟达GB200 NVL72机柜优势显著,且双宽结构为未来升级(如扩展至144 GPU配置)预留了物理空间[10] 6. 行业技术路线与协议格局 - 目前四家头部厂商均推出各自的Scale-up协议:英伟达采用自研NVLink;谷歌采用私有ICI协议;AMD主导开放标准UALink;华为推出自研灵衢协议[34] - Scale-up网络主要有两个技术方向:一是封闭的私有技术方向,以英伟达、谷歌为代表;二是基于以太网的开放技术方向,以UALink和华为灵衢(2.0版后开放)为代表,两者均处于生态建设初期[38] - 各协议特点对比:英伟达NVLink和谷歌ICI Link为专有协议;UALink基于标准以太网组件,是开放标准;华为灵衢从2.0版起转向开放标准[39]
通信:超节点与Scale up网络行业:谷歌、AMD、国产超节点持续发力,打破英伟达独大格局
东兴证券· 2026-03-03 08:24
报告投资评级 - 看好/维持 [2] 报告核心观点 - 超节点与Scale-up网络是突破算力与通信瓶颈、支撑万亿级大模型与高实时性应用的关键基础设施,正处于快速发展期,并将成为算力芯片、网络部件、存储部件、供电和散热设施部件等新兴技术的重要应用市场 [4][24] - 自2025年开始,超节点成为AI算力网络重要的技术创新方向,AI芯片厂商的竞争从芯片算力性能延伸至芯片与Scale-up网络的双战场 [13] - 全球超节点竞争格局尚未确立,英伟达目前处于领先地位,但谷歌、AMD、华为等巨头的持续发力已对其一家独大格局构成挑战,市场将继续对谷歌、AMD及国产超节点板块价值重估 [13] 行业与市场分析 - **驱动因素**:大语言模型参数规模向万亿级演进,张量并行与专家并行对网络带宽与延迟要求极为严苛,驱动构建超高带宽、超低延迟的Scale-up网络 [25][26] - **技术路径**:Scale-up网络主要有两个技术方向:一是以英伟达、谷歌为代表的封闭私有协议方向;二是以UALink和华为灵衢为代表的基于以太网的开放标准方向 [38] - **市场参与者**:除了英伟达、华为、AMD、谷歌等芯片公司,微软、Meta、Amazon、中国移动、阿里巴巴、字节跳动、腾讯、百度、中科曙光、中兴通讯、浪潮信息等全球更多厂商加入竞争 [13] - **股价表现**:2023-2024年英伟达股价大幅跑赢谷歌、AMD及A股中证算力指数,但在2025年,英伟达股价累计涨幅38%,显著落后于谷歌、AMD及A股中证算力指数 [13] 主要厂商分析 英伟达 - **领先优势**:在超节点技术方案上处于领先优势,其优势建立在NVLink和NVLink Switch技术上 [5][6] - **产品迭代**:2024-2025年陆续推出GH200 NVL72、GB200/GB300 NVL72等成熟方案,预计2025年GB200/300 NVL72出货量约2800台 [5][93]。计划在2026-2027年推出Vera Rubin NVL144和Rubin Ultra NVL576,互联GPU数将从72颗向576颗发展 [5][93] - **技术核心**:NVLink重新设计通信架构,引入网状拓扑、差分信号传输等技术。截至2025年,NVLink 5 Switch支持单GPU到GPU带宽1800GB/s,可构建72 GPU的NVLink域,总带宽达130 TB/s(双向)[6]。后续NVSwitch Gen6和Gen7的GPU-to-GPU通信带宽将升级为3.6TB/s [6][94] - **具体方案**:GB200 NVL72超节点提供180 PFLOPS的TF32 Tensor Core算力,总内存容量13.8TB,Scale up单向带宽64800 GB/s,功耗145KW [53][54]。VR200 NVL72超节点总交换容量达259.2TB/s,相比GB200 NVL72提升一倍 [83] - **潜在挑战**:Scale up网络的发展空间可能限制英伟达的领先优势,实现Scale up与Scale out网络融合或将成为其新的发展趋势 [6][94] 华为 - **协议开放**:推出自研灵衢互联协议,并从2.0版本起转向开放标准,但该协议尚未被国内业界广泛接受 [7][163]。国内正积极推动CLink等标准统一 [7] - **性能追赶**:通过集群化方式实现性能追赶。Atlas 950超节点预计2026年第四季度发布,总算力达8 EFLOPS(FP8),内存容量1152TB,互联带宽16.3PB/s,相比英伟达同期NVL144(总算力2.52 EFLOPS)实现大幅领先 [7][163] - **技术方案**:第一代超节点CloudMatrix 384采用全光互联,Scale up计算单元为384个Ascend 910C芯片,BF16密集算力约300 PFLOPS,与GB200 NVL72接近,Scale up单向带宽134400 GB/s,约为GB200 NVL72的2.1倍 [140][141]。其互联使用了6912个400G LPO光模块和3168根光纤 [161] - **方案调整**:Atlas 950超节点将采用“柜内正交铜互联+柜间光互联”的混合设计,以控制总体拥有成本 [8][164] 谷歌 - **技术路线**:建立成熟的光互联Scale-up网络,技术路线独树一帜,与英伟达形成不对称竞争 [9][168] - **核心优势**:是全球首个将光电路交换机大规模商用部署于Scale-up网络的企业,其竞争优势建立在OCS交换机上 [9] - **产品迭代**:2023-2025年陆续推出TPU v4、v5p、v7三代超节点,完成了技术路线探索和方案标准化 [9]。2026年,Anthropic将直接从博通采购近100万颗TPU v7 Ironwood AI芯片 [9]。2027年将推出第8代TPU对标英伟达Vera Rubin [9] - **OCS技术**:谷歌Palomar OCS设备端口数为136×136,最大功耗仅108W,为同交换容量电分组交换机功耗的一小部分 [178][182]。OCS技术具备每比特能耗较电分组交换机低数个数量级、引入时延极小等优势 [10] AMD - **开放标准**:作为Scale-up网络开放技术路线方,其主导的UALink成为重要开放标准。截至2026年1月底,UALink联盟成员单位超过100家 [11] - **发展前景**:UALink正处于从标准制定走向产品落地阶段,预计生态将在2027年迎来突破发展,被众多数据中心接纳,将成为英伟达NVLink有力挑战方 [11] - **产品竞争力**:AMD超节点Helios机架采用双宽机架设计,其MI455x系列Helios机柜是目前业界最能挑战英伟达NVL72机柜的竞品,在功耗领域对比GB200 NVL72机柜优势显著 [11] 投资建议 - 看好谷歌、AMD以及国内超节点厂商 [14] - 看好英伟达、谷歌与AMD超节点供应链,包括PCB背板、高速铜缆、光模块、供电与液冷系统等 [14] - 基于交换机及芯片是Scale-up网络互联的关键设备,看好谷歌光路交换机核心零部件供应商以及UALink标准下的交换机芯片研发商 [14]
东兴证券:全球超节点竞争格局尚未确立 建议关注发布国产超节点云厂商等
智通财经网· 2026-02-05 14:20
文章核心观点 - 自2025年开始,超节点成为AI算力网络重要的技术创新方向,AI芯片厂商的竞争从芯片算力性能延伸至芯片与Scale up网络的双战场 [1] - 全球超节点竞争格局尚未确立,英伟达目前处于领先地位,但越来越多厂商加入竞争 [1][5] - 基于交换机及芯片是Scale up网络互联的关键设备,建议关注国内交换机供应商以及交换机芯片研发商 [1][6] 英伟达超节点技术演进与方案 - **Hopper架构开启初步探索**:GH200通过NVLink和NVLink-C2C技术,实现GPU与CPU内存统一编址 [1] - **Blackwell架构推动标准化**:GB200 NVL72将Scale-up规模稳定在72个GPU/机柜,形成可复制标准化方案,由18个Compute Tray和9个Switch Tray构成,通过NVLink5私有协议与铜线缆实现满带宽全连接 [2] - **Rubin架构实现带宽倍增**:VR200 NVL72的NVLink 6 Switch将单GPU互连带宽提升至3.6 TB/s(上代为1.8TB/s),Spectrum-6交换机支持CPO技术,集成32个1.6Tb/s硅光光学引擎 [2] - **未来规划持续扩展**:2026-2027年计划推出Vera Rubin NVL144和Rubin Ultra NVL576,互联GPU数将从72颗向576颗发展,并在Kyber机架架构中引入NVLink Switch Blade替代传统5000+根有源铜缆 [3] 英伟达的市场地位与优势 - **推出成熟方案并领先**:2024-2025年陆续推出GH200 NVL72、GB200/GB300 NVL72等成熟超节点解决方案 [3] - **出货量预测**:根据大摩预测,2025年英伟达GB200/300 NVL72出货量约2800台 [3] - **技术优势基础**:优势建立在NVLink和NVLink Switch上,NVLink 5 Switch支持单GPU到GPU带宽1800GB/s,可构建72 GPU的NVLink域,总带宽达130 TB/s(双向) [4] - **面临潜在挑战**:Scale up网络的发展空间可能受降低TP与EP规模的技术方案影响,为保持领先,实现Scale up网络和Scale out网络融合或成为新的发展趋势 [4] 超节点领域的竞争格局与参与者 - **竞争延伸至双战场**:AI芯片厂商竞争从芯片算力性能延续至芯片+Scale up网络 [1][5] - **参与者广泛增加**:除英伟达、华为、AMD、谷歌外,更多厂商加入竞争,包括微软、Meta、Amazon、中国移动、阿里巴巴、腾讯、百度、中科曙光、中兴通讯、浪潮信息、紫光股份(新华三)、沐曦股份、恒为科技等 [5] - **格局未定与国内机会**:全球竞争格局尚未确立,中国厂商参与度高,或有国内厂商在超节点领域取得领先优势 [6] 投资关注方向 - **关注英伟达供应链**:包括PCB背板、高速铜缆、光模块、供电与液冷系统等 [6] - **关注国内领先厂商**:建议关注发布国产超节点的云厂商、通信设备厂商与芯片厂商 [6] - **关注关键网络设备**:基于交换机及芯片是Scale up网络互联的关键设备,建议关注国内交换机供应商以及交换机芯片研发商 [1][6]
超节点与Scaleup网络专题之英伟达:行业标杆,领先优势建立在NVLink和NVLink3
东兴证券· 2026-02-05 10:28
报告行业投资评级 - 看好/维持 [2] 报告的核心观点 - 大语言模型参数规模向万亿级演进,驱动对超高带宽、超低延迟Scale up网络的需求,超节点成为AI算力网络重要的技术创新方向 [4][9] - 英伟达在超节点方案上处于领先优势,其优势建立在自研的NVLink和NVLink Switch技术上 [5][6] - 全球超节点竞争格局尚未确立,除传统芯片厂商外,更多云厂商、通信设备商等加入竞争,建议关注英伟达供应链及国内相关厂商 [9] 根据相关目录分别进行总结 1. LLM训练要求高带宽与延迟,驱动超节点成为AI算力网络创新方向 - 大语言模型参数规模从千亿级向万亿乃至十万亿级演进,跨服务器张量并行和混合专家模型中的专家并行成为必然,对网络带宽与延迟要求极为严苛 [4][18] - 为满足需求,构建超高带宽、超低延迟的Scale up网络成为业界主流技术路径 [4][18] - Scale up网络特点:算力规模为数十卡至千卡级、资源利用率80%以上、通信延迟百纳秒级、支持统一内存访问、但定制化程度高 [20][22] - 超节点主要由计算节点、交换节点和Scale-up网络互联构成,其互联方案直接影响系统关键指标,目前主流有铜缆和光纤两类方案 [23][26] 2. 英伟达:超节点领先优势建立在NVLink和NVLink Switch 2.1 Scale up网络核心技术:NVLink与NVLink交换机 - NVLink与NVLink交换机是英伟达构建单机柜Scale up网络的核心技术组合,二者协同演进 [33] - 截至2025年,NVLink 5 Switch支持单GPU到GPU带宽1800GB/s,可构建72 GPU的NVLink域,总带宽达130 TB/s(双向) [6][34] - 2026年发布的第六代NVLink交换机支持的GPU-to-GPU通信带宽提升至3.6TB/s,在VR NVL72系统中提供260TB/s聚合带宽 [33][34] - NVLink采用差分信号传输、SerDes模块、网状拓扑、流量调度信用机制、多Lane绑定、统一内存空间等一系列先进技术 [6][35] - NVSwitch作为专门交换芯片,采用多阶Clos网络架构,实现多GPU高速全互联,解决了点对点连接复杂度高的问题 [39] 2.2 GB200 NVL72超节点:铜缆互联,总交换容量129.6TB/s - GB200 NVL72将Scale-up规模稳定在72个GPU/机柜,形成可复制的标准化方案 [7][43] - 节点由18个计算托架和9个交换托架构成,通过“NVLink5私有协议+铜线缆”实现全连接 [7] - 提供180 PFLOPS的TF32 Tensor Core算力,总内存容量13.4TB,内存带宽576TB/s,Scale up带宽64800单向GB/s [47][48] - 单颗NVSwitch5芯片交换容量为7.2TB/s,18颗芯片总交换容量129.6TB/s [54] - 主要采用直连铜缆互联,共需约5184根铜缆,机柜功耗145KW [48][68] 2.3 VR200 NVL72超节点:延续GB200工程技艺,总交换容量翻倍 - 2026年发布的新一代VR200 NVL72属于连续性创新,计算节点仍为72 GPU与36 CPU [46][70] - 交换节点配置36颗第六代NVSwitch芯片,数量相比GB200 NVL72翻倍,单芯片交换容量保持7.2TB/s [72] - 总交换容量提升至259.2TB/s,相比GB200 NVL72翻倍 [75] - CPU-GPU互联带宽提升至1.8TB/s,相比上代900GB/s提升一倍 [75] - 延续铜缆互联方案,但用中板取代部分线缆,且因SerDes速率升级,单连接所需铜缆由4根减为2根 [81] 2.4 总结:处于领先优势,互联GPU数将从72颗进一步向576颗发展 - 英伟达已推出GH200 NVL72、GB200/GB300 NVL72、VR200 NVL72三代超节点,处于行业领先地位 [5][43] - 根据大摩预测,2025年英伟达GB200/300 NVL72出货量约2800台 [5] - 展望2026-2027年,计划推出Vera Rubin NVL144和Rubin Ultra NVL576,互联GPU数将从72颗向576颗发展 [5][85] - 未来将在Kyber机架中引入NVLink Switch Blade,通过PCB中板替代传统5000+根有源铜缆 [5][85] - 报告指出,AI产业在探索降低张量并行与专家并行规模的技术方案,这可能限制Scale up网络的发展空间及英伟达的领先优势,未来Scale up与Scale out网络融合或是发展趋势 [8][86] 3. 投资建议 - 自2025年开始,超节点成为AI算力网络重要的技术创新方向,竞争从芯片算力延伸至“芯片+Scale up网络” [9] - 全球参与厂商众多,包括英伟达、华为、AMD、谷歌、微软、Meta、Amazon及中国移动、阿里巴巴、腾讯、百度、中科曙光、中兴通讯、浪潮信息、紫光股份、沐曦股份、恒为科技等 [9] - 投资建议关注三个方向:1) 英伟达超节点供应链,包括PCB背板、高速铜缆、光模块、供电与液冷系统等;2) 发布国产超节点的国内云厂商、通信设备厂商与芯片厂商;3) 国内交换机供应商及交换机芯片研发商 [9][97]