文章核心观点 - 英伟达高管在科技大会上阐述了公司在AI领域的领先地位、强劲需求与未来增长前景 强调从CPU向GPU的转型处于早期阶段 公司通过软硬件协同设计的系统架构维持竞争优势 并对下一代产品、财务指标及资本分配计划给出了积极指引 [1][2][3][4][5][6][7][8][9] AI与OpenAI/Anthropic合作进展 - 公司9月底宣布的为OpenAI部署“至少10吉瓦”系统的投资意向书仍处于协议阶段 尚未签署最终协议 该合作预计将为公司创造4000-5000亿美元的营收 相关营收未计入当前指引 [1][2] - 公司上个月承诺向OpenAI竞争对手Anthropic投入最多100亿美元 该交易可能进一步增加算力芯片的预定数据 [2] 行业趋势与市场机会 - 数据中心计算负载正从CPU转向GPU 且转型才刚开始 到本十年末 将有3-4万亿美元投入数据中心基础设施 其中约一半与从CPU向加速计算转型相关 [3] - AI产业正从生成式模型向推理型模型过渡 推动模型规模、Token生成量增加以及用户付费意愿提升 形成推动模型扩张和算力投入的“飞轮效应” [5] 公司竞争优势 - 公司的领先优势没有缩小 其优势源于围绕7颗不同芯片进行极端协同设计的系统 而非单一芯片或固定功能ASIC [5] - 所有模型和工作负载都在公司的平台上运行 优势不仅在于硬件 更在于完整的软硬件栈 尤其是CUDA软件平台及丰富的行业库 芯片平台可长期使用并通过软件更新不断优化 [5] 产品需求与性能展望 - Blackwell和Vera Rubin系统预期将在2025-2026年产生约5000亿美元的需求 [2] - 下一代架构Vera Rubin已经完成流片 正准备于2025年下半年推向市场 预计将出现新的数倍级别性能提升 [7] 财务表现与指引 - 尽管行业担忧HBM成本上涨 公司有信心在明年维持70%中端区间的毛利率 [8] - 基于公司需求指引 明年的收入将在3500亿至4000亿美元之间 [9] - 上一季度 公司库存与采购承诺合计大增近250亿美元 而过往单季度仅增加数亿美元 这反映了公司正在为未来增长准备供应 [9] 客户与风险关注 - 对于大模型开发商收入不高却预订大量算力的现象 公司认为其算力需求是长期问题 需要根据资本情况逐步解决 [6] - 公司的关注点基于是否有采购订单以及客户是否具备资本支付能力 当前大量工作聚焦于确保客户开发模型所需的算力和资金能及时到位 [6] 资本分配计划 - 公司明年的巨额现金将优先用于支持内部扩张 包括供应和产能建设以及推动Vera Rubin研发上市 [9] - 第二个关注重点是股东回报 包括股票回购和股息 以及使用自由现金流进行产业生态投资 [9] - 公司认为目前进行非常大规模的重大并购很难 因此会更侧重于关注那些能够在平台和研发方面帮助公司的工程团队的投资机会 [9]
英伟达CFO:OpenAI千亿大单尚未敲定 领先优势‘绝对没缩小’