H200中国市场放量倒计时! CUDA托起强需求 英伟达(NVDA.US)AI帝国迎接“增量利好”
英伟达英伟达(US:NVDA) 智通财经网·2026-03-18 08:14

公司动态:英伟达H200芯片获准对华销售与量产重启 - 公司首席执行官黄仁勋确认,基于Hopper架构的H200 AI加速器已获得美国政府许可,可向“中国市场的许多大型客户”销售,并正处于“重启我们的大规模制造”进程中 [1][2] - 公司已获得美国总统的口头许可,但迄今为止尚未从这类许可中确认任何来自中国市场的H200营收 [5] - 有媒体此前报道,运往中国市场的H200 AI芯片需接受美国额外例行检查,并被征收25%的关税,且美国官员考虑将每家中国客户的购买数量限制在75,000颗,总出货量最高可达100万颗处理器 [6] 市场与财务影响:中国市场作为关键增量 - 中国市场过去曾占公司总营收的四分之一,如今仅占很小一部分,但仍是全球最大规模的单一半导体市场,对公司的长期基本面繁荣至关重要 [4][7] - 公司尚未将任何中国市场的数据中心类型营收前景纳入其财务预测,2月给出的本季强劲业绩指引里没有计入任何中国数据中心营收前景,近期展望仍是零 [4][7] - 如果H200能以较大规模流向中国市场,对公司基本面扩张前景而言是实质性的增量利好,将构成对公司当前估值模型和市场增长预期的增量级别上修空间 [1][7] 产品与技术定位:H200的性能与市场需求 - H200属于Hopper架构,单卡规格为141GB HBM3e、4.8TB/s带宽、约4 PFLOPS FP8 [8] - H200的综合性能远不如公司目前用于训练和运行AI大模型的Blackwell/Blackwell Ultra架构AI芯片,但相比此前专为中国市场推出的H20有近6倍性能提升 [4][8] - H200凭借强劲的AI推理效能、席卷全球AI开发者生态的CUDA体系以及便捷部署能力,在受制裁约束的中国市场颇受欢迎,是“受限条件下的高端可用算力” [4][9] 行业前景与公司战略:AI算力基础设施的宏大蓝图 - 公司在GTC大会上公布,在Blackwell架构及即将量产的Vera Rubin架构推动下,其在人工智能芯片领域的未来营收规模到2027年可能至少达到1万亿美元,远高于此前提出的到2026年实现5000亿美元的目标 [10] - 黄仁勋表示“人工智能推理时代已经到来”,且推理需求还在不断上升,H200的141GB HBM3e对长上下文、大规模批量部署AI推理集群依旧非常有吸引力 [9] - 华尔街机构认为,以AI算力硬件为核心的全球人工智能基础设施投资浪潮远未完结,持续至2030年的这一轮投资浪潮规模有望高达3万亿至4万亿美元 [11] 政策与竞争环境:出口限制与关税 - 公司近年来一直努力恢复AI芯片在中国市场的销售,但由于美国政府的芯片出口限制,这一庞大市场已对这类产品实质性长期关闭 [2] - 美国政府允许H200在特定条件下出口到中国,并以25%费用/关税作为“交换条件”,而Blackwell系列等更高端AI芯片产品目前仍不被允许出口 [3] - 这项针对公司与AMD的半导体关税政策排除了用于美国本土数据中心、消费者设备及产业用途的芯片 [3]