Workflow
NVLink
icon
搜索文档
从“更快”到“更省”:AI下半场,TPU重构算力版图
半导体行业观察· 2026-02-09 09:18
AI算力行业范式转变:从训练为王到推理为王 - 行业核心逻辑正发生本质改变,从以模型训练为中心的“训练为王”旧秩序,转向以规模化应用为核心的“推理为王”新时代[1] - 大模型的商业价值实现依赖于规模化推理服务,模型每天需处理数十亿次用户请求,推理成本直接决定每次API调用的利润空间[4] - 行业关注焦点已从单纯追求算力规模,转向通过提升算力利用率与能效来降低Token成本,这是实现商业价值的关键路径[37] 成本驱动下的算力竞争格局重塑 - 大模型核心商业模式是按每百万Token计费,降低单个Token成本是AI技术像电力一样渗透各行业的关键,因此市场对“Token per dollar”(每美元产出的Token量)的关注度空前增长[8] - 以谷歌TPU为代表的专用架构(ASIC)正成为强有力的挑战者,其成本优势显著。数据显示,从TPU v6到TPU v7,谷歌已将每百万token的推理成本降低了约70%[8] - 英伟达GB 200 NVL72每百万token推理成本约为0.27美元,而谷歌TPU v7在同样任务负载下,成本已降至相当甚至更优水平,标志着算力竞争格局的转折点[8] - 成本优势已成为商业博弈筹码。OpenAI仅凭“威胁购买TPU”这一策略,就迫使英伟达生态链做出让步,使其计算集群总拥有成本下降了约30%[10] - 头部AI公司开始大规模商业部署ASIC芯片,例如Anthropic与博通签订了价值高达210亿美元的TPU订单,若通过TPU v7降低30–40%单位推理成本,在其月度千亿级别API调用规模下,可能带来每年数十亿美元的利润改善[10] 谷歌TPU崛起的技术与生态逻辑 - TPU采取极其精简的专用架构设计,砍掉与AI推理无关的图形处理单元,将晶体管资源集中于大模型最核心的矩阵运算[13] - TPU引入独特的脉动阵列架构,让数据如流水般在计算单元间连续流动,大幅减少对寄存器的频繁读写,配合大容量片上SRAM缓存与高效数据搬运引擎,显著降低了“数据搬运”这一主要能耗瓶颈[13] - 为打破英伟达CUDA生态的路径依赖,谷歌采取“硬件进化、软件开源”双重攻势。其XLA编译技术及OpenXLA开源项目,打通了从多框架模型到不同硬件的统一编译路径[15] - 谷歌近期与Meta合作推进TorchTPU项目,实现TPU对PyTorch的原生支持,使开发者可将PyTorch模型无缝迁移至TPU。PyTorch在全球机器学习开发应用中占比超过80%[15] 本土芯片厂商奕行智能的技术路径与突破 - 公司硬件采用类TPU架构,其矩阵、向量、标量的精简架构设计完全匹配大模型计算特点,显著降低了传统GPGPU架构中用于调度与资源分配的额外开销(通常占总开销的10%-20%),有效提高能效比与面积效率[20] - 其大尺寸矩阵运算引擎采用类TPU的双脉动流水设计,数据复用率提升数倍,且显著减少数据前处理开销,编程更为简单易用[20] - 面对AI计算中频繁出现的4D数据,其高性能4D DMA引擎仅通过一次操作即可完成整体搬移与数据变换,相比竞品需多次操作优势明显。通过配置大容量片上缓存,其访问速度相比存放在DDR的方案提升1–2个数量级[21] - 其近存计算设计,在实测中Flash Attention关键算子利用率相比竞品提升4.5倍[21] - 公司架构率先引入RISC-V+RVV(向量扩展)指令集,并支持RVV 1024 bit位宽,精准捕捉了RISC-V向AI计算拓展的机遇。谷歌也在TPU中集成了RISC-V处理器[21] - 基于类TPU架构+RISC-V底座,公司推出了国内业界首款RISC-V AI算力芯片Epoch,该系列产品及解决方案于2025年启动量产,已在头部客户中获得商业突破并大规模量产出货[22] 精度演进:低位宽与高精度的平衡 - “低位宽、高精度”数据格式支持是行业突破能效瓶颈的关键路径。例如,TPU Tensor Core在FP8模式下可提供2倍于BF16的算力密度[25] - 以Ironwood(TPU v7)为例,其FP8峰值算力达到4.6 PetaFLOPS,而BF16仅为2.3 PetaFLOPS,显存占用和通信数据量也同步减半[25] - 奕行智能的AI芯片在国内率先支持DeepSeek所需的基于分块量化的FP8计算精度,并在新一代产品支持NVFP4、MXFP4、MXFP8、MXINT8等前沿数据格式,可高效释放算力,大幅降低存储开销[26] - “拓宽数据通道”(支持RVV 1024 bit位宽)与“压缩信息体积”(支持低位宽浮点精度)的双重组合,带来了向量算力与矩阵算力吞吐的双重增长与存储成本下降[26] 软件与生态的协同构建 - 奕行智能在软件栈深度融合谷歌开源的StableHLO和XLA技术,全面支持PyTorch、TensorFlow、JAX、ONNX等主流框架。其智能编译器ACE已接入OpenXLA体系,可无缝迁移至TorchTPU方案,让PyTorch开发者能够近乎“零代码修改”地实现模型迁移[28] - 公司推出原生适配Tile(分块)的动态调度架构,通过“虚拟指令+智能编译器+硬件调度器”的闭环,将复杂指令依赖与内存管理交由硬件自动完成,打破传统静态优化的性能上限[32] - 其独创的VISA虚拟指令集技术,在复杂硬件和上层软件之间架起“标准翻译桥梁”,降低开发门槛[32] - 在生态构建上,公司正与Triton社区推进合作,将Triton编译流引入RISC-V DSA后端,并计划开源其虚拟指令集,共同打造面向RISC-V DSA的“CUDA式”开发生态[35] 全栈竞争:从芯片到互联与系统优化 - 行业竞争已升级为覆盖芯片、互联、软件与系统优化的全栈AI基础设施生态之争[37] - 英伟达的优势不仅在于GPU与CUDA,其高速互联技术NVLink同样关键,GB200 NVL72系统正是依托NVLink实现高效的Scale Up互联架构[37] - 奕行智能自研的互联技术方案ELink,支持超大带宽与超低延迟的Scale Up扩展,是其构建算力效率护城河的关键一环[37] - ELink支持前沿的在网计算技术,可将部分计算卸载至网络交换节点,从而减轻带宽负担,降低通信延迟[38] - ELink全面支持RoCEv2、SUE、EthLink、C-Link等主流互联协议,能与支持上述协议的交换设备及芯片无缝高效互联,并支持800G/400G/200G可配置以太网标准协议[38] - ELink互联方案的任意点对点带宽(P2P带宽)可达传统互联方案的7倍,根据不同组网方案单节点聚合带宽可达14.2倍,有效支持大模型高速推理[40]
东兴证券:全球超节点竞争格局尚未确立 建议关注发布国产超节点云厂商等
智通财经网· 2026-02-05 14:20
文章核心观点 - 自2025年开始,超节点成为AI算力网络重要的技术创新方向,AI芯片厂商的竞争从芯片算力性能延伸至芯片与Scale up网络的双战场 [1] - 全球超节点竞争格局尚未确立,英伟达目前处于领先地位,但越来越多厂商加入竞争 [1][5] - 基于交换机及芯片是Scale up网络互联的关键设备,建议关注国内交换机供应商以及交换机芯片研发商 [1][6] 英伟达超节点技术演进与方案 - **Hopper架构开启初步探索**:GH200通过NVLink和NVLink-C2C技术,实现GPU与CPU内存统一编址 [1] - **Blackwell架构推动标准化**:GB200 NVL72将Scale-up规模稳定在72个GPU/机柜,形成可复制标准化方案,由18个Compute Tray和9个Switch Tray构成,通过NVLink5私有协议与铜线缆实现满带宽全连接 [2] - **Rubin架构实现带宽倍增**:VR200 NVL72的NVLink 6 Switch将单GPU互连带宽提升至3.6 TB/s(上代为1.8TB/s),Spectrum-6交换机支持CPO技术,集成32个1.6Tb/s硅光光学引擎 [2] - **未来规划持续扩展**:2026-2027年计划推出Vera Rubin NVL144和Rubin Ultra NVL576,互联GPU数将从72颗向576颗发展,并在Kyber机架架构中引入NVLink Switch Blade替代传统5000+根有源铜缆 [3] 英伟达的市场地位与优势 - **推出成熟方案并领先**:2024-2025年陆续推出GH200 NVL72、GB200/GB300 NVL72等成熟超节点解决方案 [3] - **出货量预测**:根据大摩预测,2025年英伟达GB200/300 NVL72出货量约2800台 [3] - **技术优势基础**:优势建立在NVLink和NVLink Switch上,NVLink 5 Switch支持单GPU到GPU带宽1800GB/s,可构建72 GPU的NVLink域,总带宽达130 TB/s(双向) [4] - **面临潜在挑战**:Scale up网络的发展空间可能受降低TP与EP规模的技术方案影响,为保持领先,实现Scale up网络和Scale out网络融合或成为新的发展趋势 [4] 超节点领域的竞争格局与参与者 - **竞争延伸至双战场**:AI芯片厂商竞争从芯片算力性能延续至芯片+Scale up网络 [1][5] - **参与者广泛增加**:除英伟达、华为、AMD、谷歌外,更多厂商加入竞争,包括微软、Meta、Amazon、中国移动、阿里巴巴、腾讯、百度、中科曙光、中兴通讯、浪潮信息、紫光股份(新华三)、沐曦股份、恒为科技等 [5] - **格局未定与国内机会**:全球竞争格局尚未确立,中国厂商参与度高,或有国内厂商在超节点领域取得领先优势 [6] 投资关注方向 - **关注英伟达供应链**:包括PCB背板、高速铜缆、光模块、供电与液冷系统等 [6] - **关注国内领先厂商**:建议关注发布国产超节点的云厂商、通信设备厂商与芯片厂商 [6] - **关注关键网络设备**:基于交换机及芯片是Scale up网络互联的关键设备,建议关注国内交换机供应商以及交换机芯片研发商 [1][6]
超节点与Scaleup网络专题之英伟达:行业标杆,领先优势建立在NVLink和NVLink3
东兴证券· 2026-02-05 10:28
报告行业投资评级 - 看好/维持 [2] 报告的核心观点 - 大语言模型参数规模向万亿级演进,驱动对超高带宽、超低延迟Scale up网络的需求,超节点成为AI算力网络重要的技术创新方向 [4][9] - 英伟达在超节点方案上处于领先优势,其优势建立在自研的NVLink和NVLink Switch技术上 [5][6] - 全球超节点竞争格局尚未确立,除传统芯片厂商外,更多云厂商、通信设备商等加入竞争,建议关注英伟达供应链及国内相关厂商 [9] 根据相关目录分别进行总结 1. LLM训练要求高带宽与延迟,驱动超节点成为AI算力网络创新方向 - 大语言模型参数规模从千亿级向万亿乃至十万亿级演进,跨服务器张量并行和混合专家模型中的专家并行成为必然,对网络带宽与延迟要求极为严苛 [4][18] - 为满足需求,构建超高带宽、超低延迟的Scale up网络成为业界主流技术路径 [4][18] - Scale up网络特点:算力规模为数十卡至千卡级、资源利用率80%以上、通信延迟百纳秒级、支持统一内存访问、但定制化程度高 [20][22] - 超节点主要由计算节点、交换节点和Scale-up网络互联构成,其互联方案直接影响系统关键指标,目前主流有铜缆和光纤两类方案 [23][26] 2. 英伟达:超节点领先优势建立在NVLink和NVLink Switch 2.1 Scale up网络核心技术:NVLink与NVLink交换机 - NVLink与NVLink交换机是英伟达构建单机柜Scale up网络的核心技术组合,二者协同演进 [33] - 截至2025年,NVLink 5 Switch支持单GPU到GPU带宽1800GB/s,可构建72 GPU的NVLink域,总带宽达130 TB/s(双向) [6][34] - 2026年发布的第六代NVLink交换机支持的GPU-to-GPU通信带宽提升至3.6TB/s,在VR NVL72系统中提供260TB/s聚合带宽 [33][34] - NVLink采用差分信号传输、SerDes模块、网状拓扑、流量调度信用机制、多Lane绑定、统一内存空间等一系列先进技术 [6][35] - NVSwitch作为专门交换芯片,采用多阶Clos网络架构,实现多GPU高速全互联,解决了点对点连接复杂度高的问题 [39] 2.2 GB200 NVL72超节点:铜缆互联,总交换容量129.6TB/s - GB200 NVL72将Scale-up规模稳定在72个GPU/机柜,形成可复制的标准化方案 [7][43] - 节点由18个计算托架和9个交换托架构成,通过“NVLink5私有协议+铜线缆”实现全连接 [7] - 提供180 PFLOPS的TF32 Tensor Core算力,总内存容量13.4TB,内存带宽576TB/s,Scale up带宽64800单向GB/s [47][48] - 单颗NVSwitch5芯片交换容量为7.2TB/s,18颗芯片总交换容量129.6TB/s [54] - 主要采用直连铜缆互联,共需约5184根铜缆,机柜功耗145KW [48][68] 2.3 VR200 NVL72超节点:延续GB200工程技艺,总交换容量翻倍 - 2026年发布的新一代VR200 NVL72属于连续性创新,计算节点仍为72 GPU与36 CPU [46][70] - 交换节点配置36颗第六代NVSwitch芯片,数量相比GB200 NVL72翻倍,单芯片交换容量保持7.2TB/s [72] - 总交换容量提升至259.2TB/s,相比GB200 NVL72翻倍 [75] - CPU-GPU互联带宽提升至1.8TB/s,相比上代900GB/s提升一倍 [75] - 延续铜缆互联方案,但用中板取代部分线缆,且因SerDes速率升级,单连接所需铜缆由4根减为2根 [81] 2.4 总结:处于领先优势,互联GPU数将从72颗进一步向576颗发展 - 英伟达已推出GH200 NVL72、GB200/GB300 NVL72、VR200 NVL72三代超节点,处于行业领先地位 [5][43] - 根据大摩预测,2025年英伟达GB200/300 NVL72出货量约2800台 [5] - 展望2026-2027年,计划推出Vera Rubin NVL144和Rubin Ultra NVL576,互联GPU数将从72颗向576颗发展 [5][85] - 未来将在Kyber机架中引入NVLink Switch Blade,通过PCB中板替代传统5000+根有源铜缆 [5][85] - 报告指出,AI产业在探索降低张量并行与专家并行规模的技术方案,这可能限制Scale up网络的发展空间及英伟达的领先优势,未来Scale up与Scale out网络融合或是发展趋势 [8][86] 3. 投资建议 - 自2025年开始,超节点成为AI算力网络重要的技术创新方向,竞争从芯片算力延伸至“芯片+Scale up网络” [9] - 全球参与厂商众多,包括英伟达、华为、AMD、谷歌、微软、Meta、Amazon及中国移动、阿里巴巴、腾讯、百度、中科曙光、中兴通讯、浪潮信息、紫光股份、沐曦股份、恒为科技等 [9] - 投资建议关注三个方向:1) 英伟达超节点供应链,包括PCB背板、高速铜缆、光模块、供电与液冷系统等;2) 发布国产超节点的国内云厂商、通信设备厂商与芯片厂商;3) 国内交换机供应商及交换机芯片研发商 [9][97]
开盘8分钟,20%涨停!重磅利好,持续发酵!
券商中国· 2026-02-03 10:49
CPO行业动态与市场前景 - 光模块与CPO市场高速增长,预计2025年市场规模达165亿美元,2026年将激增至260亿美元,年增长率高达60% [3] - 顶级云公司资本开支提供支撑,Meta和Oracle计划在2026年将其资本开支翻倍 [3] - 面向主要云公司的光学器件销售额占其资本开支比例预计将从2025年的2.7%增至2026年的3.1%,并将在2031年增至4.1% [3] 英伟达CPO技术进展与影响 - 英伟达CPO交换机预计将出货,出货量预计1万台,其中Spectrum5率先起量 [1][5] - 自2026年第二季度起,Spectrum6及Quantum CPO交换机有望小规模出货 [1][5] - 若2027年英伟达在scale-up网络中引入CPO技术,光互连场景将进一步拓展 [1][5] - 英伟达计划举办“面向十亿瓦级AI工厂的共封装硅光子交换机”网络研讨会,聚焦数据中心实现超算级性能 [4] - CPO技术核心优势是降低总拥有成本与功耗,以GB300 NVL72集群为例,极端情况下采用CPO技术的3层网络transceiver功耗可降低84%,总网络功耗降低23% [5] 资本市场表现与相关公司 - A股CPO概念股表现强势,天孚通信涨逾10%,新易盛、中际旭创涨逾3%,致尚科技开盘后迅速20%涨停 [1] - CPO在Scale-up连接中的采纳可能会超出预测,并在2028年至2031年间引领市场实现更强劲的增长 [3] - 有券商观点认为2026年为CPO量产元年 [5] 宏观市场环境 - 市场分析认为短期市场可能偏震荡格局,外围流动性衰减势头暂时企稳但地缘变数仍在,同时内地去杠杆可能零星出现 [7] - 贵金属强劲反弹,美国杠杆借贷指数小幅企稳,虚拟货币亦有反弹,但比特币仍维持在7.9万美元以下水平,流动性格局是否完全扭转尚难定论 [8] - 春节前最后一周市场可能逐渐平静,A股成交和融资余额水平虽较前期高点下降但仍较高,预计在长假来临之际将呈收敛趋势 [8] - 当日沪深两市融资买入额为2418.66亿元,前一交易日为2669.79亿元;融资偿还额为2478.76亿元,前一交易日为2905.22亿元 [8]
As Nvidia Eyes an OpenAI Investment, Should You Buy, Sell, or Hold NVDA Stock?
Yahoo Finance· 2026-01-30 02:27
公司核心定位与市场地位 - 公司已从游戏图形芯片制造商转型为现代计算的支柱 其GPU为数据中心、人工智能、机器人和沉浸式数字世界提供动力 [1] - 凭借CUDA软件平台构建了强大的开发生态系统 使公司成为行业标准而不仅仅是供应商 [1] - 公司市值接近4.7万亿美元 已成为人工智能经济的引擎 [1] 财务表现与业务增长 - 2026财年第三季度收入跃升至571亿美元 同比增长62% 调整后每股收益同比增长60%至1.30美元 超出预期 [11] - 数据中心业务是核心支柱 同比增长66%至512亿美元 网络业务增长162%至82亿美元 游戏业务增长30% 汽车业务增长32% [12] - 运营现金流增至238亿美元 自由现金流增长65%至221亿美元 公司在2026财年前九个月向股东返还了370亿美元 并仍有622亿美元的股票回购授权 [13] - 资产负债表稳健 拥有606亿美元现金及现金等价物 长期债务仅为75亿美元 短期债务低于10亿美元 [13] 估值与技术分析 - 股票远期调整后市盈率约为42.56倍 高于大多数同行 但低于其自身长期平均水平 [9] - 远期市盈增长率约为1.08 表明估值反映了增长而非过度溢价 [9] - 股价在触及212.19美元高点后回调约9.7% 但在过去52周内仍上涨约53.2% [6] - 14日相对强弱指数从80以上的高位回落至55.35 表明早期过度乐观情绪已消退 价格趋于稳定而非大幅下跌 [7] 行业动态与战略投资 - 公司与OpenAI关系紧密 参与了OpenAI在2024年10月的66亿美元融资轮 并承诺投入高达1000亿美元支持其数据中心扩张 [2] - 作为回报 OpenAI同意租赁数百万颗公司芯片 该交易据称价值数千亿美元 [2] - 公司可能参与OpenAI最新的500亿美元融资轮 该轮融资可能使OpenAI估值超过8000亿美元 [4] - 竞争对手Anthropic正以3500亿美元的估值筹集约200亿美元资金 凸显资本正快速涌入下一代人工智能竞赛 [3] 未来展望与分析师观点 - 管理层预计第四季度收入约为650亿美元 上下浮动2% 分析师预计第四季度收入为656亿美元 每股收益同比增长70.6%至1.45美元 [14] - 对于整个2026财年 每股收益预计同比增长51.2%至4.43美元 2027财年预计再增长58.9%至7.04美元 [15] - 分析师普遍看好公司前景 共识评级为“强力买入” 在50位分析师中 44位建议“强力买入” 3位建议“适度买入” 2位建议“持有” 仅1位建议“强力卖出” [16] - 分析师平均目标价为254.81美元 意味着潜在上涨空间为34% 最高目标价352美元则暗示可能上涨85% [16]
越来越重要的SerDes
半导体芯闻· 2026-01-26 16:44
文章核心观点 - 人工智能(AI)的快速发展,特别是大规模AI模型训练对海量数据交换的需求,使得SerDes(串行器/解串器)这项已有数十年历史的技术从“锦上添花”的组件跃升为构建AI数据中心不可或缺的“关键技术” [1] - 随着AI模型规模扩大、GPU连接增多和数据传输速度提升,SerDes的重要性与日俱增,其技术演进和市场竞争将成为决定AI基础设施性能的关键因素 [13] SerDes技术原理与作用 - SerDes是Serializer和Deserializer的合成词,其核心功能是将多路并行数据在发送端合并为单路高速串行数据(序列化),在接收端再还原为并行数据(反序列化),以解决芯片或设备间并行传输的物理线路复杂和同步困难问题 [3] - 该技术通过单根电线传输数百Gbps的数据,是连接GPU等计算单元的“数据高速公路”背后的关键技术 [1][3] - 该技术已存在数十年,广泛应用于USB、HDMI和以太网等接口,但AI带来的超高带宽需求使其地位发生质变 [3] AI驱动下的性能需求与演进 - NVIDIA最新的AI系统GB200 NVL72通过NVLink连接72个GPU,每秒可交换约130 TB的数据,相当于一秒钟内流式传输6,000到10,000部两小时的Netflix 4K电影 [3] - NVIDIA第五代NVLink提供的GPU间双向带宽为1.8 TB/s,约为2014年第一代NVLink(160 GB/s)的11.3倍 [4] - 自2014年以来,随着链路速度提高和NVLink域规模扩大,NVLink域的总带宽增加了900倍,在576个GPU的域中达到了1 PB/s的水平 [4] 市场规模与资本支出 - Kings Research预测,全球SerDes市场将从2024年的7.453亿美元增长到2032年的约20亿美元,复合年增长率为13.45% [6] - 超大规模数据中心运营商(亚马逊、微软、谷歌和Meta)的资本支出总额预计在2024年达到2244亿美元,2025年将达到3150亿美元 [6] - 例如,Alphabet将其2025年资本支出预期上调至910亿至930亿美元,而亚马逊则表示其2025年资本支出约为1250亿美元 [6] - 这些巨额投资中相当一部分流向了交换机、网卡、光模块和GPU,所有这些都依赖于SerDes技术 [6] 技术挑战与设计核心 - 虽然SerDes处理的是数字数据(0和1),但在极高的传输速度下(如主流112G SerDes每秒传输1120亿比特),模拟电路设计方法至关重要,因为信号会发生失真、衰减和干扰 [8] - 在112G速率下,单个比特的持续时间仅为9皮秒(9万亿分之一秒),模拟电路的任务是从失真的信号中精确读取原始的0和1 [8] - 高速模拟电路设计能力是SerDes领域的核心竞争优势 [9] 技术标准演进与下一代发展 - 目前主流标准是112G SerDes,将8条通道捆绑在一起即可形成800Gbps(800G以太网),这是目前AI数据中心的标准 [9] - 下一代224G以太网预计将于2025年投入量产,并在2026年实现显著普及,采用8条通道可实现1.6T以太网 [9] - 预计到2028年,1.6T网络市场规模将达到130亿美元 [9] - 随着速度提升,铜线局限性显现:在112G速率下,有效传输距离缩短至约2.0-2.5米;在224G速率下,缩短至约1米 [10] - 共封装光器件(CPO)将光模块直接封装在芯片旁边,以缩短电信号传输距离并利用光进行远距离传输,NVIDIA和Broadcom计划在2025年至2026年间发布CPO产品 [10] 行业竞争格局与未来焦点 - 由于SerDes设计和验证困难,许多芯片公司购买经过验证的SerDes PHY IP的许可 [11] - 目前最紧迫的竞赛是224G量产(2025-2026年),谁将率先大规模供应稳定的224G解决方案将决定未来几年的市场领导地位,目前Synopsys、Cadence和Marvell处于领先地位 [11] - 为实现更高速率传输(如448G及以上),与光通信的融合至关重要,NVIDIA、Broadcom和Ayar Labs等公司正在推出CPO产品,预计在2027年后将得到广泛应用 [11] - 在连接AI加速器的标准方面,存在NVIDIA的NVLink与由AMD、Intel、Google、Meta等超过85家公司支持的开放标准UALink之间的竞争,UALink 200G 1.0规范已于2025年4月8日发布 [12] - SerDes设计涵盖模拟、数字和信号处理领域,吸引顶尖技术人才已成为行业的结构性挑战,并与公司竞争力直接相关 [12]
SerDes,愈发重要
半导体行业观察· 2026-01-26 09:42
文章核心观点 - 人工智能的爆发式发展,特别是大规模AI训练对海量数据交换的需求,将一项已有数十年历史的成熟技术——SerDes(串行器/解串器)推向了行业前沿,使其从辅助组件转变为构建AI数据中心不可或缺的关键技术[1] - 随着AI模型规模和GPU集群的扩大,数据传输速度成为系统瓶颈,SerDes作为“数据高速公路”的核心,其性能直接决定了整个AI计算系统的效率[1] - 行业正围绕SerDes技术展开一场隐形的竞赛,竞争焦点在于谁能提供更快、更高效、更经济的解决方案,这将成为决定未来AI基础设施竞争格局的关键因素[13] SerDes技术原理与作用 - SerDes是Serializer和Deserializer的合成词,其核心功能是将多路并行数据在发送端合并为一路高速串行数据,在接收端再还原为并行数据,以此解决芯片或设备间大量并行线路传输的物理和同步难题[3] - 该技术通过单根电线传输数百Gbps的数据,类似于将多辆货车的货物集中到一列高速子弹头列车上进行运输[3] - SerDes技术已应用数十年,常见于USB、HDMI和以太网等接口,但AI对带宽的极致需求使其重要性发生质变[3] AI驱动下的性能需求与增长 - NVIDIA最新的AI系统GB200 NVL72通过NVLink连接72个GPU,每秒可交换约130 TB的数据,形象化比喻相当于一秒钟内流式传输6,000到10,000部两小时的Netflix 4K电影[3] - 单个GPU间连接带宽大幅提升,NVIDIA第五代NVLink提供的GPU间双向带宽为1.8 TB/s,是2014年第一代NVLink(160 GB/s)的11.3倍[4] - 随着链路速度提升和连接规模扩大,自2014年以来,NVLink域的总带宽增加了900倍,在576个GPU的域中达到了1 PB/s的水平[4] 市场规模与资本支出 - 全球SerDes市场预计将从2024年的7.453亿美元增长到2032年的约20亿美元,复合年增长率为13.45%[6] - 超大规模数据中心运营商(亚马逊、微软、谷歌和Meta)的资本支出急剧增长,预计四家公司2024年资本支出总额为2244亿美元,2025年将达到3150亿美元[6] - 其中,Alphabet将其2025年资本支出预期上调至910亿至930亿美元,亚马逊则表示其2025年资本支出约为1250亿美元,这些投资中的相当一部分将流向依赖于SerDes技术的交换机、网卡、光模块和GPU[6] 技术挑战与设计核心 - 在极高的传输速度下(如主流112G SerDes每秒传输1120亿比特),信号会发生严重失真、衰减和干扰,模拟电路设计在从失真信号中精确读取原始数字数据方面起着至关重要的作用[8] - 高速模拟电路设计能力是SerDes领域的核心竞争优势,其作用类似于在数字化交通中负责道路铺设和流量控制[9] - SerDes的设计和验证非常困难,因此许多芯片公司选择购买经过验证的SerDes PHY IP许可[11] 技术演进与下一代标准 - 目前主流标准是112G SerDes,将8条通道捆绑可形成800Gbps(800G以太网),这是当前AI数据中心的标准[9] - 下一代224G以太网预计2025年投入量产,2026年显著普及,采用8条通道可实现1.6T以太网,预计到2028年,1.6T网络市场规模将达到130亿美元[9] - 更远的未来,448G SerDes处于研究阶段,预计在2028年之后应用[10] 传输介质演进与CPO技术 - 随着速度提高,铜线传输距离受限,在112G速率下有效距离缩短至约2.0-2.5米,在224G速率下缩短至约1米[10] - 共封装光器件(CPO)技术日益受到关注,它将光模块直接封装在芯片旁边,以缩短电信号传输距离,并利用光进行远距离传输[10] - NVIDIA和Broadcom计划在2025年至2026年间发布CPO产品,预计在2027年后将得到广泛应用[11] 行业竞争格局与未来焦点 - 行业正进入224G量产竞赛(2025-2026年),谁能率先大规模供应稳定的224G解决方案将决定未来几年的市场领导地位,目前Synopsys、Cadence和Marvell处于领先地位[11] - 在AI加速器互连标准上,存在NVIDIA的NVLink与由AMD、Intel、Google、Meta等公司联合成立的开放标准UALink之间的竞争,UALink于2025年4月8日发布了UALink 200G 1.0规范[12] - SerDes设计涵盖模拟、数字和信号处理领域,吸引和竞争顶尖技术人才已成为整个行业的结构性挑战,并与公司的竞争力直接相关[12]
芯片初创公司,单挑英伟达和博通
半导体行业观察· 2026-01-22 12:05
公司概况与融资 - 芯片初创公司Upscale AI宣布完成2亿美元A轮融资,旨在挑战英伟达在机架级AI系统交换机领域的地位,并与思科、博通和AMD等公司竞争 [1] - 本轮融资由Tiger Global、Premji Invest和Xora Innovation领投,多家知名风投及企业投资机构参投,使公司总融资额超过3亿美元 [1] - 投资者的迅速涌入反映了行业共识:网络是人工智能扩展的关键瓶颈,传统网络架构不适用于AI时代 [1] 市场定位与战略 - 公司专注于开拓预计到本十年末将达到1000亿美元的人工智能互连市场 [6] - 公司策略是将GPU、AI加速器、内存、存储和网络整合到一个单一的同步AI引擎中 [6] - 公司致力于普及AI计算的网络,坚信异构计算和异构网络是未来的发展方向,旨在为客户提供除英伟达NVSwitch之外的更多选择 [9][10] - 公司平台基于开放标准和开源技术构建,并积极参与相关联盟与基金会,如Ultra Accelerator Link联盟、Ultra Ethernet联盟等 [7] 核心产品与技术 - 公司核心产品是名为SkyHammer的解决方案,这是一款专为纵向扩展网络(连接机架内部硬件组件)而优化的芯片,能提供确定性延迟 [6][9] - SkyHammer通过缩短加速器、内存和存储之间的距离,实现统一机架,并将整个堆栈转换为一个统一的同步系统 [6] - 该芯片采用从头开始构建的内存结构ASIC,专门为AI工作负载设计,支持内存语义协议,并生成实时遥测数据以优化性能 [13] - SkyHammer兼容多种开源网络技术,包括UALink、ESUN和UEC,其中UEC可为多达100万个芯片的AI集群提供支持 [13][14] - 该平台将同时支持UALink和与其竞争的ESUN协议,并将扩展对开源网络操作系统SONiC的支持 [17] 行业背景与挑战 - 英伟达的网络业务(如NVLink)是其重要护城河,其2026财年第三季度网络业务收入同比增长162%,达到81.9亿美元 [3] - 传统数据中心网络解决方案是为AI出现之前的世界设计的,不适合机架级规模所需的大规模、高度同步的扩展 [2] - 随着单芯片性能扩展乏力,Scale Up和Scale Out的连接需求将成为主流,市场需要高基数、高总带宽的交换机 [3] - 目前能够与英伟达NVSwitch竞争的专用UALink交换机尚未问世,AMD的首批基于UALink的机架式系统将通过以太网隧道传输该协议 [16] 创始团队与背景 - 公司创始人Rajiv Khemani是连续芯片创业专家,曾担任Cavium Networks首席运营官,该公司后被Marvell以60亿美元收购 [3][4] - Khemani也是Innovium的联合创始人兼首席执行官,该公司于2021年被Marvell以11亿美元收购 [4] - 2022年,Khemani联合创立了Auradine,致力于研发AI和区块链计算及网络芯片,该公司在2025年4月前共筹集了超过3亿美元 [5] - 2024年5月,Khemani和联合创始人Barun Kar将Auradine的部分网络业务剥离,成立了Upscale AI [6] - 联合创始人Barun Kar曾任Palo Alto Networks工程高级副总裁,并在Juniper Networks管理以太网路由器和交换机产品 [6] 发展计划与目标 - 凭借新增的2亿美元融资,公司将推出首个涵盖芯片、系统和软件的全栈式交钥匙平台,旨在连接未来通用人工智能的异构系统 [7] - 公司已与超大规模数据中心运营商和GPU供应商建立合作关系,并完成了架构验证,当前资金重点是将创新转化为实际部署 [18] - 公司目前主要专注于纵向扩展网络产品,但长期计划将产品线扩展到更传统的横向扩展交换机 [18]
90% of Nvidia's Customers Now Buy This -- and It's Not GPUs
Yahoo Finance· 2026-01-16 07:50
英伟达数据中心业务与市场地位 - 英伟达在数据中心GPU市场占据主导地位 并正通过扩展相邻领域来拓展业务[1] - 公司多年来持续投资网络业务 随着其向机架级AI解决方案推进 网络业务正在迅猛增长[1] 网络业务财务表现与产品构成 - 在2026财年第三季度 英伟达网络业务收入达82亿美元 同比增长162%[2] - 该业务类别包括用于连接GPU的NVLink InfiniBand交换机以及Spectrum-X以太网网络平台[2] - 包括Meta 微软 Oracle和xAI在内的多家公司正在建设将使用其Spectrum-X以太网交换机的大型AI数据中心[2] AI网络的关键性与市场需求 - AI数据中心的网络需求与标准云数据中心截然不同 对于AI训练工作负载 GPU间的数据吞吐量必须足够高以防止GPU闲置 数据的快速传输对于AI推理工作负载也至关重要[5] - 在2026年国际消费电子展上 英伟达首席财务官披露 购买完整AI系统同时购买网络产品的客户比例(网络附着率)已接近90%[4] - 即使部分部署使用自研AI芯片的客户 也经常使用英伟达的网络技术[4] 以太网交换机市场份额与增长 - 英伟达已成为以太网交换机市场的重要参与者 特别是在数据中心细分市场[6] - 根据IDC数据 2025年第三季度超高速800GbE交换机的收入几乎环比翻倍[6] - 英伟达目前占据数据中心以太网交换机市场11.6%的份额 仅次于Arista Networks和思科系统[6] Rubin平台与未来增长动力 - 英伟达在CES上发布了Rubin平台 该平台将其GPU CPU和多种网络技术集成到8-GPU和72-GPU系统中[7] - Vera Rubin NVL72是一个机架级解决方案 将于2026年由所有主要AI云提供商部署[7] - Rubin平台采用新的Spectrum-6系列以太网交换机 其端口具有800 GB/s连接能力 可提供高达102.4 Tb/s的交换容量[8] - 公司日益关注销售机架级AI系统 而不仅仅是数据中心GPU 这有望在2026年及以后显著推动网络收入增长[8] 业务战略与影响 - 公司已扩展其网络产品组合 以满足大规模AI数据中心对超高速网络设备的强劲需求[9] - 网络业务为英伟达提供了另一个增长引擎 即使其GPU市场份额因竞争而受到侵蚀[9]
Bank of America spots major Nvidia-linked stock market setup
Yahoo Finance· 2026-01-14 00:07
英伟达主导的AI基础设施产业格局 - 英伟达正在为整个AI行业设定发展节奏 其平台代际切换决定了产业链各环节的更新速度 超大规模云服务商需调整部署策略 服务器制造商需重新设计产品 数据中心建设商需匹配其节奏来调整电力、冷却、网络和机架布局 [4][5] - 英伟达建立了强大的全栈护城河 其CUDA生态系统拥有超过600万开发者和约6000个CUDA应用 客户一旦采用其生态 几乎无法转换 [6] - 英伟达在AI芯片市场占据约80%至85%的份额 这进一步巩固了其市场锁定效应 [7] 英伟达的市场表现与行业影响 - 过去三年 英伟达股价飙升超过1082% 仅过去一年就上涨超过30% 并多次创下纪录 [2] - 市场仍在追逐错误的信号 例如争论冷却效率和芯片散热等问题 而忽视了更深层次的产业趋势 [2][9] 潜在的投资机会转移 - 投资机会不在于追逐每一则AI相关头条新闻 而在于投资为科技巨头提供基础设施的工业“管道”公司 这些公司帮助科技巨头跟上英伟达的持续重新设计 [8] - 投资者不应只关注英伟达的下一步动作 而应围绕那些默默执行其战略的工业股进行布局 [3] - 由英伟达驱动的基础设施转变正悄然利好其工业合作伙伴 而非那些追逐热点的AI交易 [1][4]