Workflow
工作负载分解
icon
搜索文档
英伟达GTC 大会重磅前瞻,下周资金将疯狂涌向这三个板块
36氪· 2026-03-13 08:12
GTC 2026大会核心意义 - 本次GTC大会的核心并非发布新品,而是英伟达试图重新定义AI基础设施的游戏规则,完成从硬件芯片公司向AI基础设施平台公司的身份跨越 [9] - 资本市场将此次大会视为2026年AI美股下一阶段主线归属的关键博弈点,其结果可能重塑整条AI产业链的价值分配逻辑 [8] 战略重心转变:从单芯片到系统级优化 - 英伟达的战略重点正从追求“单芯片算力峰值”转向“系统级优化”与“极限协同设计”,旨在将芯片、网络、内存、软件整合成高效、标准化的“AI工厂” [10] - 公司的核心竞争力评估维度,从过去的“发动机极限马力”(单GPU性能)转向未来的“整车极限协同设计”(系统规模化落地与投资回报率ROI) [11] - 市场关注点本质变化:从只关心算力峰值,转向关注系统大规模落地的可行性以及功耗和成本的回报率(ROI) [11] 关键预期差:工作负载分解 - 瑞银报告指出,最大的预期差在于“工作负载分解”,即根据AI任务的不同需求(如训练需“蛮力”,推理需“反应速度”)进行精细化分工,而非依赖单一“全能”GPU [12] - 工作负载分解是英伟达从“单芯片性能”转向“系统级性价比”的关键,通过为不同任务分配最合适的计算、网络和内存资源来优化整个系统 [15] - 此举并非削弱护城河,而是通过掌握“任务分配权”和“数据流动管理权”,强化公司在软件栈和系统层的绝对控制权,并可能推翻基于GPU出货量的传统估值模型 [15][17] 网络与互联成为新瓶颈与投资焦点 - 当AI进入成千上万颗芯片协同的“机架时代”,决定系统效率的关键从单卡算力转变为数据搬运的速度和延迟,网络与互联成为新的瓶颈 [18] - 投资逻辑正在从第一阶段的“算力中心”(核心指标:单卡算力Teraflops)重构为第二阶段的“互联中心”(核心指标:带宽与延迟Bandwidth/Latency) [19] - 硬件主角从单个GPU转变为交换机、光模块、互连技术;核心壁垒从芯片制程转向生态锁定与系统级调度 [19] - 控制网络即控制系统的“调度权”,使用英伟达的通信协议将增加客户未来的扩展和迁移成本,从而锁定其生态 [19] - 华尔街目光已穿过GPU,直接聚焦底层的光互连和硅光技术,特别关注1.6T光模块与硅光技术的进展 [20][21] 内存架构:SRAM与HBM的整合互补 - 英伟达正引入类似Groq的架构,利用片上SRAM实现超低延迟推理,以解决特定场景的延迟痛点 [24] - SRAM与HBM并非替代关系,而是基于工作负载分解的整合互补:SRAM延迟极低但容量天花板低,适用于对延迟极度敏感的专用推理;HBM容量极大,是维持AI系统大规模训练与运转的“系统级大动脉” [26][28] - 通过这种分层内存架构(SRAM/L1、L2、HBM及系统级互连协同),将不同负载放到最合适的资源上处理,旨在降低单位token生成成本,提升整个平台的投资回报率(ROI) [30] 代币经济学(Tokenomics)与财务估值 - 华尔街对AI的关注点已从资本开支规模,转向每一轮投入能否转化为更低的单位token成本和更高的商业回报 [30] - 英伟达近期的产品核心卖点已转向cost per token、吞吐/每兆瓦以及整套AI基础设施的经济可行性 [30] - 花旗报告推演,得益于系统级效率优化,英伟达2028财年每股收益(EPS)可能达到15美元,按当前股价计算远期市盈率(PE)约为12倍,显示市场可能仍以传统硬件制造商视角为其定价,存在巨大预期差 [32] - 瑞银数据预测,美光等厂商的HBM收入在2028年将飙升至270亿美元,且短缺预期延续数年,表明分层架构进一步固化了HBM作为主存核心的长期利润池地位 [32] 下一代产品路线图的系统化解读 - 下一代产品路线图(如Blackwell, Rubin, Feynman)的关键并非单卡算力提升,而是推动系统密度达到极限,在计算、带宽、内存、功耗处理等多维度同时提升 [35][36] - Rubin Ultra等产品代表了英伟达推动“基础设施标准化、系统化、平台化”的战略,迫使竞争对手在系统级能力上追赶,从而形成深厚护城河 [36] - 公司的估值逻辑正在从“卖最好的芯片”转向“卖唯一的AI系统”,产业链投资机会将外溢至网络架构、光互连、CPO(共封装光学)、硅光等领域 [36]