英伟达大会GTC金融分析师问答
英伟达英伟达(US:NVDA)2026-03-19 10:39

纪要涉及的行业或公司 * 行业:人工智能、半导体、云计算、数据中心基础设施 * 公司:英伟达 核心观点与论据 1 人工智能发展进入新拐点 * 人工智能发展正经历三个关键拐点:生成式AI、推理能力、以及当前能够自主运行的智能体系统[2] * 智能体系统最受欢迎的应用之一是软件编写,工程师将消耗大量代币以提升工作效率[2] * 计算机的角色正从工具转变为生产设备,其能源和生产效率直接影响营收[2] 2 产品需求与市场前景极为强劲 * 截至2027年底,Blackwell和Rubin系列产品的合计订单可见性超过1万亿美元[1][3] * 此1万亿美元预期仅包含Blackwell和Rubin系列,未计入Grok、独立销售的Vera CPU等2025年后推出的新产品增量[1][3] * 公司具备备货和稳定供应能力,服务于有紧急算力需求的客户,并持续开发新客户、新市场和新区域[3] 3 通过价值创造维持高毛利率 * 维持高毛利率的关键在于提供远超客户预期的价值,而非成本竞争[1][4] * 客户购买设备是为了生产代币,因此代币产出效率(每秒处理tokens数量及每瓦功率每秒处理tokens数量)至关重要[4][5] * 例如,Vera Rubin通过提升单位功耗Token产出效率,使客户倾向购买高价新品以降低生产成本,尽管其价格更高[1][5] 4 业务结构分布与未来演变 * 当前业务结构:约60%来自超大规模云服务提供商,40%来自区域云、工业领域和企业本地部署[1][7] * 公司是CSPs顶尖的销售团队之一,为其吸引CUDA开发者、AI原生企业及大型企业客户[7] * 在物理AI拐点出现后,工业端AI工厂的占比有望从40%提升,甚至可能达到70%[1][10] 5 推理业务成为核心,算力应用格局将重塑 * 2025年是公司的“推理之年”,业务取得关键进展,展示了从训练、后训练到推理环节的全面领先地位[5][6] * 开源模型按总生成token量计算,已成为仅次于OpenAI的第二大最受欢迎的AI模型[6] * 预计未来全球接近100%的算力将用于推理,以实现Token变现[1][25] * 训练是成本,而推理才能创造经济效益,未来推理与训练的边界将越来越模糊[25] 6 产品与技术路线图清晰 * Vera Rubin将先于Grok发货,已进入生产阶段[11] * 计算架构分为极低延迟和极高吞吐量两类,公司将融合Grok与Vera Rubin及GPU,利用Grok处理自回归语言模型中对带宽需求极高的最后阶段[11] * 互连策略坚持铜缆优先并向CPO演进,下一代Ultra系列将提供纯铜与混合方案,预计两年后高端产品全面转向CPO[1][18] * 公司是全球唯一能在单一AI工厂中跨越HBM、LPDDR5和SRAM三种内存优化架构的公司[14] 7 市场规模与商业模式变革 * 当前IT软件行业规模约2万亿美元,未来通过智能代理的全面融入,软件许可市场规模可能扩展至8万亿美元[9] * 商业模式将从过去的软件授权盈利,转变为通过租赁智能代理系统和生成代币盈利[9] * AI代币作为一种新商品,其成本将持续下降,同时每个代币的智能水平和吞吐量会持续提升[19] 8 现金流分配与供应链管理 * 现金流分配优先保障供应链产能预付及增长投入,与供应商建立长期合作关系,甚至预付款项或共同投资建设产能[1][16] * 在2026年上半年完成既定投资项目后,股票回购和股息合计占自由现金流的比例有望从50%起步[1][16] * 公司预计产能紧张将持续至2027年,但当前供应链各环节处于协调状态,有能力满足超过万亿美元的需求[17] 9 竞争格局与公司优势 * AI下游市场格局:从运行的终端模型看,OpenAI最大,其次是所有开源模型的总和,然后是Anthropic[6][21] * 公司策略是在竞争领域力求超越对手,同时为合作伙伴(如CSP)创造价值,提升市场地位[21] * 公司的关键优势在于其通用性架构,能全面兼容所有类型的AI模型,并完全自主开发完整的软件栈,实现每年全系统升级[20][22][23] 其他重要内容 * 开源软件影响:2025年开源软件和开源模型爆发式增长,英伟达是全球最佳的开源模型平台[6] * 新工作负载与模型:为处理超长上下文,混合架构(如状态空间模型)是关键,公司开发并开源相关技术以推动AI整体发展[20] * 组织与运营:公司组织架构设计旨在支撑其产品体系,管理团队涵盖所有必需技术领域,通过完全掌控软件和硬件实现高速迭代[22][23] * 具体数据示例:Reddit上有用户一天消耗了5,000万token,成本仅为50美元,展示了token消耗的潜力和成本效益[10] * 产品定价分层:当前行业普遍的定价是每百万token约6美元,未来希望能提供每百万token 50美元的服务以满足超大型模型需求[13] * Grok的增量影响:若将25%的工作负载迁移到Grok,计算支出将增加25%,如果1万亿美元预算全部用于添加Grok,总支出将达到1.25万亿美元[15]