Workflow
NVLink
icon
搜索文档
Rigetti(RGTI) - 2025 Q3 - Earnings Call Transcript
2025-11-11 22:30
Rigetti Computing (NasdaqCM:RGTI) Q3 2025 Earnings Call November 11, 2025 08:30 AM ET Speaker1Good day, and thank you for standing by. Welcome to the Rigetti Computing Third Quarter 2025 Financial Results Conference Call. At this time, all participants are in listen-only mode. After this speaker's presentation, there will be a question-and-answer session. To ask a question during this session, you will need to press star 11 on your telephone. You will then hear an automated message advising your hand is rai ...
Rubin更新:Context处理器纳入路线图、SerDes448G升级、定调无缆化:AI算力行业跟踪点评之2
申万宏源证券· 2025-11-03 20:55
行业投资评级与核心观点 - 报告未明确给出整体行业投资评级,但基于英伟达新平台带来的供应链机会,对特定细分领域和公司持积极看法[3] - 核心观点:英伟达在华盛顿GTC大会细化了AI算力技术路线图,预览下一代Vera Rubin架构,增强了技术路线图执行信心,并为Blackwell和Rubin平台提供了明确的业绩可见性,这将驱动PCB、连接器、液冷等硬件供应链迎来新一轮规格升级和增长机遇[3] 平台业绩与出货量 - Blackwell平台截至当前已出货约600万颗GPU,预计Blackwell与Rubin芯片在2025至2026年合计出货量达2000万颗GPU(每颗芯片包含2个GPU die),累计收入将超过5000亿美元[3] - 这一出货规模和收入预期是前代Hopper芯片全生命周期(出货量400万颗,收入1000亿美元)的5倍[3][5] 产品路线图与技术分化 - 计算产品路线图显示将分化为Context GPU(即CPX)和Generation GPU两类,以支持Prefill-Decode分离式架构[3] - Context GPU(CPX)专为计算密集的Prefill阶段优化,通过增加算力、降低存储和互联带宽配置来实现更高系统经济性,其降本增效因素包括计算优化、存储与互联减配以及更低成本封装[3] - Generation GPU则维持高算力、高存力、高带宽的均衡设计[3] - 路线图显示Feynman平台预计于2028年推出,将沿用Kyber NVL576机架规格[3] 互联技术升级与硬件规格 - Rubin平台基于448G SerDes速率,NVLink 6.0将升级至400G SerDes通道速率,显著超越标准Ethernet的106.25G-PAM4[3] - NVLink 5.0在Blackwell NVL36/72架构已迭代至200G-PAM4,随着AI集群规模扩大,对448G互联技术需求迫切[3] - 为实现400G及以上速率,PAM4及更高阶调制、SE MIMO和BiDi双向传输是潜在技术路线,这对信道质量和信号完整性提出更高要求,推动连接器、线缆、PCB板等电互联组件规格升级[3] - Vera Rubin平台将实现Tray内完全无缆化连接,互联功能由PCB和连接器取代(如CPX内置中板),以此降低部署难度,提高可维护性和可靠性,同时强化PCB和连接器的平均售价提升逻辑[3] 供应链投资建议 - 报告建议关注以下细分领域公司:PCB增量(胜宏科技、生益电子、方正科技、景旺电子、沪电股份)、连接器/CPC(立讯精密)、集成复杂度提升(工业富联)、液冷+电源(欧陆通、领益智造、比亚迪电子)[3] - 相关公司估值数据见估值表,例如胜宏科技预测2025年每股收益6.40元,对应市盈率46.6倍;立讯精密预测2025年每股收益2.29元,对应市盈率27.5倍[21][22]
Scaleup助推交换芯片增长
民生证券· 2025-11-03 16:58
行业投资评级 - 推荐 维持评级 [6] 核心观点 - AI数据中心架构正从Scale-out向Scale-up转型,以突破单节点算力瓶颈,交换芯片作为基础部件将深度受益于Scale-up互连规模的持续增长 [1][3][54] - 头部厂商通过NVLink、UALink、SUE等方案推动Scale-up技术升级,带动PCIe Switch芯片和以太网交换芯片需求提升 [2][20][54] - 中国是全球最大的PCIe交换芯片市场,但国产化率极低,在AI服务器需求旺盛和国产替代趋势下,国内企业面临广阔发展空间 [5][45][49][50] Scale-up是超节点方案的升级方向 - Scale-out架构面临带宽延迟瓶颈、能效低和系统复杂度高的问题,行业转向Scale-up架构,通过高速互连技术集成更多计算单元 [1][15] - Scale-up通过PCIe、NVLink等技术在单节点内提升资源密度,构建高带宽域,典型应用包括英伟达NVL72和华为CloudMatrix384等超节点方案 [1][15][16] 头部厂商方案推动Scale-up规模增长 - 英伟达通过NVLink实现节点内GPU互联,NVLink5带宽达900 GB/s,NVSwitch聚合带宽达3,600 GB/s [16][20] - AMD、博通等推出UALink和SUE方案竞争,UALink支持1,024节点互连,带宽和时延优于NVLink [2][20] - 节点内互连主要依赖PCIe Switch,节点间通过以太网或InfiniBand,Scale-up增长直接驱动交换芯片需求 [24][25][26] 交换芯片市场前景 - 全球AI服务器出货量从2022年100万台增至2024年200万台,预计2030年达650万台,2025-2030年CAGR为21.2% [30][33] - 全球PCIe互连芯片市场规模从2022年4.69亿美元增至2024年22.89亿美元,预计2030年达77.61亿美元,2025-2030年CAGR为20.1% [30][33] - AI和云基础设施连接芯片市场预计从2023年172亿美元增至2027年274亿美元 [4][37] 国产替代空间 - 2024年中国PCIe交换芯片市场规模约38亿元,预计2029年达170亿元,中国占全球市场48% [5][45][49] - 2024年全球以太网交换芯片市场规模约347亿元,中国占192亿元 [5][50] - 高端PCIe交换芯片由博通、微芯科技等垄断,CR3达84%;中国万兆以上以太网交换芯片市场博通占73.1%,盛科通信作为国内龙头仅占2.3% [49][50][53] 投资建议 - 关注PCIe Switch芯片产业链:具备设计能力的中兴通讯、澜起科技、数渡科技,以及提供Serdes IP的芯原股份 [54] - 关注以太网交换芯片产业链:中兴通信、盛科通信等企业 [54]
3 Artificial Intelligence Stocks to Buy and Hold Through 2035
Yahoo Finance· 2025-10-27 17:45
Key Points Nvidia has created a wide moat by building a strong ecosystem around its chips. ASML has a monopoly on the technology used to make advanced chips. TSMC has become an invaluable parter to advanced chipmakers. 10 stocks we like better than Nvidia › If you're looking for artificial intelligence (AI) stocks to hold for the next decade, you're going to want to find ones with leadership positions and strong moats. Let's look at three stocks that fit that bill. Nvidia When looking for marke ...
Nvidia's New Partner And Rival: Intel, AMD Witness Improving Technical Indicators Amid Solid Momentum Gains
Benzinga· 2025-10-23 19:21
公司动量表现 - 英特尔公司动量排名为90.21 较之前的88.31有所上升 短期、中期和长期价格趋势均呈积极态势 [2] - 超威半导体公司动量排名为93.41 较之前的89.51显著提升 同样显示出全面的积极价格趋势 [2] - 英特尔增长排名表现不佳 处于第16.50百分位数 超威半导体则保持强劲的增长和质量排名 但价值评分较低 [2] 行业竞争格局 - 英伟达公司在2025年9月向英特尔投资50亿美元 双方从竞争关系转向合作 共同开发定制人工智能和个人电脑解决方案 [3] - 合作内容包括将英特尔的x86中央处理器与英伟达的NVLink和RTX图形处理器集成 旨在主导数据中心和消费市场 [3] - 尽管存在合作 英特尔的Arc图形处理器和超威半导体的Radeon Instinct加速器仍在人工智能和游戏领域与英伟达主导地位激烈竞争 [4] 市场与价格动态 - 在特定交易日盘前交易中 英特尔股价下跌0.49% 超威半导体股价下跌0.19% [6] - 同一时期 标准普尔500指数下跌0.53%至6,699.40点 纳斯达克100指数下跌0.99%至24,879.01点 道琼斯工业平均指数下跌0.71%至46,590.41点 [6]
回归技术--Scale Up割裂的生态
傅里叶的猫· 2025-10-19 00:01
文章核心观点 - 文章核心观点是分析AI服务器Scale Up高速互联技术的市场格局、主流技术方案及其发展前景,重点探讨了英伟达NVLink、博通SUE和由AMD、Marvell等公司推动的UALink三大技术路线的竞争态势 [1][3][5] - 随着AI算力需求增长,Scale Up网络市场预计将从2024年的40亿美元以34%的年复合增长率增长至2029年的170亿美元,为非英伟达阵营的互联技术提供了巨大市场机会 [5][7] - Scale Up技术生态目前呈现割裂状态,未来竞争结果将取决于xPU市场份额划分、新网络标准演进以及客户的数据中心架构选择 [10][22] Scale Up和Scale Out概念 - Scale Up网络指同一台服务器或同一机架内GPU之间的高速通信网络,通过加速器互联使其协同工作,相当于一台大型超级计算机 [3] - 在Hopper时代以8卡机为主,服务器内部GPU可通信,服务器间需接交换机;Blackwell时代的GB200 NVL72则将一个机架内的72个GPU视为单一虚拟GPU,消除了服务器间通信瓶颈 [5] 主流Scale Up方案对比 - 英伟达采用专有NVLink协议实现GPU集群互联,在GB200/300的NVL72配置中,NVLink扩展至Blackwell GPU与Grace CPU的连接,预计未来将继续仅通过NVLink实现Scale Up [11] - AMD借助专有Infinity Fabric技术实现MI300 GPU的Scale Up,单个服务器最多连接8个GPU;即将推出的MI400将采用72-GPU机架配置,通过基于以太网的UALink实现Scale Up [12] - 谷歌通过芯片间互联技术实现机架内TPU Scale Up,借助光电路交换技术实现跨机架扩展;基于TPUv7架构的完整扩展pod可支持多达9216个TPU [13] - 亚马逊采用专有NeuronLink互联技术实现Scale Up通信,可在四个Trainium2实例间连接多达64个芯片;目前正与阿斯特拉实验室合作研发专用Scale Up交换机,预计2026年推出 [14] - 博通的SUE采用AI优化以太网,具备超低延迟和高性能,使用博通Tomahawk交换机,支持横向与纵向扩展的第六代产品已于6月出货 [17] - UALink是专为AI设计的内存语义互联技术,目前处于发展初期,由AMD、ALAB、MRVL及多家超大规模企业组成的联盟支持,基于AMD的Infinity Fabric,物理层依托以太网 [17] 国内超节点发展现状 - 目前国内已公布超节点方案的只有华为和阿里,华为有UB Mesh,阿里有ALink;其他国产GPU厂由于系统复杂性高且需要自有互联协议,面临较大挑战 [9] - 阿里欢迎其他厂家加入ALink生态,但其他厂家可能因竞争关系不愿兼容,同时受国际形势影响可能也不会选择国外互联总线,导致国内生态发展存在不确定性 [9] 互联介质选择:光与铜 - 当前Scale Up网络以铜缆为主,因其在短距离内具有纳秒级低延迟和成本优势,能避免光器件的额外成本和功耗 [20] - 单机架加速器部署规模上限约为72个,受架构、功耗与散热、物理密度和可靠性四大因素限制;若规模超过100个或需转向光连接 [20] - 预计铜缆将在Scale Up网络中长期使用,但当Scale Up突破单机架实现数百个GPU集群时,可能于2028年及以后引入光器件 [20][21] 市场竞争格局与关键因素 - Marvell在UALink生态中的主要贡献是准备做UALink switch,这是整个生态中最关键的一环 [22] - 当前市场处于早期阶段,架构、技术标准和客户偏好仍在变化中,最终胜出的Scale Up技术尚未确定,但市场规模足以支撑多家供应商共存 [22] - 长期来看,非英伟达阵营预计将从专有Scale Up网络逐步转向UAL、SUE等开源解决方案,这些技术有望在2027-2028年随着技术成熟及新ASIC产品放量而得到更广泛应用 [22]
英伟达面向人工智能基础设施的 800 伏直流架构白皮书
2025-10-15 22:44
行业与公司 * 行业专注于下一代人工智能基础设施的数据中心电源架构 特别是AI工厂[1][3] * 公司为NVIDIA 其提出的800 VDC MGX架构是核心解决方案[40][46] 核心观点与论据 **AI算力需求驱动电源架构变革** * GPU革命将数据中心转变为AI工厂 GPU机柜功率密度相比网络服务器提升近100倍 电源基础设施占地面积已 rival 甚至超过计算占地面积[3] * GPU性能提升与NVLink域规模扩大导致功率密度呈指数级增长 例如从Hopper到GB300 热设计功耗增加75% 但性能提升50倍 机柜功率密度增加3.4倍[5][6][10] * 传统20%的代际功率增长模式被打破 功率增长可达2倍 4倍或8倍 驱动对新型机柜电源架构的需求[5][7] **800 VDC成为下一代配电最优架构** * 800 VDC相比机柜内54 VDC或设施级480 VAC系统 能显著减少电流 铜使用量和电缆体积 同时保持安全性和可扩展性[8] * 与415 VAC相比 800 VDC允许通过相同横截面积的铜传输的功率增加157%[35][37] * 该架构受益于碳化硅和氮化镓功率转换器件的成熟以及电动汽车行业对800 VDC系统的广泛采用[8] * 800 VDC简化系统架构 将AC/DC转换上游移至设施级 最终实现直接中压交流转直流 减少转换级数 提高可靠性[38] **负载波动与储能集成是关键挑战与解决方案** * GPU同步工作导致负载和功率曲线同步 在LLM工作负载中 功率利用率会在约30%空闲至100%之间快速摆动 对机柜 数据中心乃至电网构成挑战[12] * 缓解负载波动的四种解决方案包括 优化软件空闲周期 使用储能 燃烧功率 以及限制GPU性能 理想情况下储能应覆盖大部分波动持续时间[13][14][15][17][18] * 需要分层储能策略 在电网互联端使用电池储能系统进行负载平均 在计算机柜附近集成电容器等短时储能以抑制快速动态功率行为[29][30] * 未缓解的50%占空比方波会导致RMS损耗增加25% 靠近GPU抑制峰值对于降低数据中心总设备成本至关重要[24] **电网互联要求与标准化协作** * AI工作负载的规模和波动性给电网互联带来挑战 电网运营商要求更大的负载灵活性 可控性和可预测性[25][27] * 行业合作需要建立标准化的负载行为配置文件 响应指标和调节要求 以加快审批速度[31] * AI工厂有潜力通过储能 计算调谐和协调控制策略 发展成为支持电网的资产 而不仅仅是被动负载[28][29] **数据中心参考设计与实施路径** * NVIDIA提出17.5 MW电力块概念设计 采用五个3.5 MW中压整流器 5选4冗余配置 为四个1.1 MW计算机柜供电[65][66] * 实施路径分阶段 近期使用商用1000 V级组件部署800 VDC至机柜 长期目标为1500 VDC[45] * 安全设计至关重要 采用防触摸连接器和机械联锁 借鉴电动汽车充电器技术[48] 其他重要内容 * 讨论了其他设施级直流配电选项 如750 VDC ±400 VDC和1500 VDC 并分析了其优缺点[41][42][43] * 指出了1500 VDC在数据中心内部 特别是机柜内实施面临的安全标准 组件认证和电弧闪光担忧等挑战[44] * 行业前进路径需要围绕通用电压范围 连接器 直流原生设备开发认证以及安全标准与操作实践进行协作[70][71][74]
Nvidia Stock Just Touched a New All-Time High. Here Is Where Options Data Says NVDA Could Be Headed Next
Yahoo Finance· 2025-10-02 23:43
股价表现与市场反应 - 公司股价在周四创下191.05美元的历史新高[1] - 相较于今年四月初的低点,公司股价已上涨约120%[2] - 美联储于9月17日降息25个基点,推动了科技股的整体上涨[1] 分析师观点与评级 - TD Cowen维持对公司股票的“买入”评级,目标价为235美元,暗示较当前水平有23%的上涨潜力[3][4] - 华尔街分析师共识评级为“强力买入”,平均目标价约为215美元,暗示有13%的上涨空间[8] - 分析师认为公司凭借其NVLink高速互连技术在市场中占据主导地位,并构建了宽阔的护城河[3][4] 期权市场预期 - 期权数据描绘了看涨前景,交易员押注股价将继续上涨[5] - 截至12月19日到期的合约暗示交易区间为165.39美元至214.35美元,显示2025年底前有显著上涨潜力[5] - 预计下周股价波动幅度为3.59%,波动区间为183美元至196美元[5] 业务发展与行业地位 - 公司与OpenAI达成的1000亿美元合作伙伴关系巩固了其在人工智能硬件领域的领导地位[1][6] - 公司被市场视为下一代计算的支柱,一系列人工智能基础设施里程碑推动了其发展势头[6]
CPU和CPU,是如何通信的?
半导体行业观察· 2025-09-29 09:37
文章核心观点 - 文章系统阐述了人工智能和高性能计算系统中,CPU与GPU之间以及GPU与GPU之间的数据通信技术演进,重点分析了传统通信方式的瓶颈以及NVIDIA推出的GPUDirect系列技术、NVLink和NVSwitch等优化方案如何通过减少数据拷贝次数、提供高带宽直连来显著提升数据传输效率 [3][6][7][11][12][14][15][19][20][24][25][27][28] GPU与存储系统的通信 - 传统数据加载流程需经过系统内存中转,涉及两次数据拷贝:第一次从NVMe SSD通过DMA技术经PCIe总线拷贝到系统内存,第二次通过CUDA的cudaMemcpy函数经PCIe总线将数据从系统内存拷贝到GPU显存 [6] - 传统方式存在冗余的数据拷贝过程,导致效率瓶颈 [6] - GPUDirect Storage技术优化了此流程,它提供了存储设备与GPU显存的直接通路,允许网卡或存储系统的DMA引擎直接向GPU显存读写数据,减少了CPU和系统内存的瓶颈,显著提升了数据密集型应用的性能 [6][7] GPU之间的数据流动 - 传统GPU间通信需通过系统内存中的共享固定内存中转,数据从GPU0显存经PCIe拷贝到系统内存,再经PCIe拷贝到GPU1显存,过程存在多次冗余拷贝 [10] - GPUDirect P2P技术允许GPU之间通过PCIe或NVLink直接进行数据拷贝,无需经过系统内存缓存中间数据,使执行相同任务时的数据拷贝动作减少一半 [11][12] - 尽管P2P技术有优化,但多个GPU通过PCIe总线与CPU相连的方式,在AI对HPC要求提升的背景下,PCIe通信带宽逐渐成为瓶颈 [13] - PCIe带宽随版本提升而增加,例如PCIe 3.0 x16带宽为15.75 GB/s,PCIe 4.0 x16带宽为31.51 GB/s,PCIe 5.0 x16带宽为63.02 GB/s [13][14] 高带宽互连技术NVLink与NVSwitch - NVLink是一种高速高带宽互连技术,用于GPU之间或GPU与其他设备间的直接通信,例如NVIDIA A100 GPU通过NVLink互联可达到600GB/s的双向带宽,远高于传统PCIe总线 [14][15] - 不同世代NVLink带宽持续提升,第三代每GPU带宽为850GB/s,第四代为900GB/s,第五代达到1,800GB/s [16] - NVLink解决了单节点小规模计算设备间的高效通信,但当GPU数量超过NVLink最大连接数时,拓扑结构面临挑战 [17][18] - NVSwitch是专为多GPU系统设计的高速互联芯片,它作为节点交换架构,支持单节点中多个GPU的全互联,例如支持16个GPU全互联,并支持多对GPU同时通信 [19][20] - NVSwitch提供高带宽,每条NVLink带宽可达300 GB/s(双向),远高于PCIe 4.0 x16的32GB/s带宽,并且支持全互联拓扑,避免通信瓶颈,具有良好的可扩展性 [20] - NVSwitch版本带宽不断提升,NVLink 3 Switch总聚合带宽为4.8TB/s,NVLink 4 Switch为7.2TB/s,NVLink 5 Switch为1PB/s [21] GPU之间的跨机通信 - 经典的跨机通信不支持RDMA时,需借助系统内存进行数据传输,过程包含5个步骤,涉及数据在GPU显存、主机固定内存和网卡缓冲区之间的多次拷贝,效率较低 [22][23][24] - GPUDirect RDMA技术优化了跨机通信,它将上述5个步骤简化至一步完成,支持外围PCIe设备直接访问GPU显存,减少了通过系统内存的中间数据拷贝,并减轻了CPU负载 [24][25] - GPUDirect RDMA可通过InfiniBand、RoCE或iWARP等协议实现 [25] 技术总结与应用结合 - GPUDirect Storage实现了存储设备与GPU显存的直接访问,提升数据加载效率 GPUDirect P2P实现了GPU间互联互通 NVLink改善了PCIe带宽瓶颈 NVSwitch解决了多GPU设备拓扑扩展问题 GPUDirect RDMA解决了多节点GPU间通信问题 [27] - 在实际系统中,GPUDirect P2P与RDMA可结合使用以最大化性能:在单节点内通过NVLink与GPUDirect P2P实现GPU间高速通信,在跨节点间通过InfiniBand与GPUDirect RDMA实现低延迟数据传输 [27][28] - GPUDirect P2P是单节点多GPU通信的基石,依赖高速直连硬件优化本地协作 GPUDirect RDMA是跨节点GPU通信的核心,依赖RDMA网络实现远程数据直达 两者共同支撑了从单机到超大规模集群的GPU高效协同,是AI训练和HPC等领域的关键技术 [28]
Top Wall Street analysts favor these 3 stocks for their robust growth outlook
CNBC· 2025-09-28 19:48
英伟达 (NVIDIA) 投资亮点 - 公司通过持续创新和战略交易巩固其主导地位,例如近期宣布向英特尔投资50亿美元以及向OpenAI大规模投资1000亿美元 [3] - 分析师认为公司是人工智能生态系统的首选,不仅因其CUDA软件栈,还因其互联解决方案NVLink有望成为事实标准 [4] - 公司被指定为OpenAI的首选供应商,将协助其进行至少10吉瓦的人工智能基础设施建设,管理层确认历史上每吉瓦的总可寻址市场为300亿至400亿美元 [5][6] - 分析师将目标股价从214美元上调至225美元,并对2026年营收和每股收益预测上调2%,但仍认为该预测可能保守 [4][6] 蒙戈数据库 (MongoDB) 投资亮点 - 公司在投资者会议上提供了3至5年的财务框架,尽管市场对其百分之十几的营收增长预测初步反应平淡,但分析师预计人工智能和竞争性迁移将推动增量增长 [8][9] - 管理层计划继续投资于业务,但投资速度将低于营收和毛利增长,投资重点集中在开发者意识、研发和销售团队 [10] - 分析师对公司在人工智能领域的定位更加积极,这得益于其在连接数据与大语言模型的嵌入技术以及持续整合Voyage一流模型 [11] - 分析师重申买入评级,并将目标股价从325美元上调至365美元 [8]