报告公司投资评级 未提及 报告的核心观点 - 对生成式人工智能后续的技术发展和应用的铺开保持积极态度,认为2025年下游需求依然强劲,相较2024年或仍有20%增长,股价或在2025年有更明确需求的情况下出现进一步变化 [1][17] 各部分总结 新产品架构Blackwell - 采用台积电4nm制程,整合两个独立制造的裸晶,基于Blackwell的B200有2080亿个晶体管,通过10TB/秒的芯片到芯片链路连接成单个统一的GPU [16][19] - 性能上比Hopper架构有很大升级,每个Blackwell Die的浮点运算能力比上一代Hopper Die高出25%,每个封装中有两个Blackwell芯片,总性能提高了2.5倍 [16][20] - 拥有六项革命性技术,可支持多达10万亿参数的模型进行AI训练和实时LLM推理 [21] - 采用该架构的GPU系列产品包括B100、B200和GB200,B100只适配于之前发布的HGX和DGX平台,GB200集成了两个B200 GPU与一个Grace CPU,提供20 PFLOPS的FP4算力 [16] - 基于Blackwell的AI算力以DGX GB200的服务器芯片形态提供给用户,结合36颗CPU和72颗GPU,芯片通过NVLink 5.0连接,为1.8TB/s双向吞吐量,一个超级计算机或可配置8块DGX GB200,确保多达576个GPU之间的无缝高速通信 [9][16] 新款旗舰人工智能芯片B200/GB200 - GB200集成两个B200 Blackwell GPU与一个基于Arm的Grace CPU,通过2080亿个晶体管提供高达20 petaflops的FP4吞吐量 [23] - 与相同数量的H100 Tensor Core GPU相比,全新GB200 NVL机架级系统成本和能耗大幅下降,在FP4条件下GB200训练算力为20 PFLOPS(推理算力40 PFLOPS),是H100 4 PFLOPS的5倍,成本和能耗降至25分之一 [23] - 在具有1750亿个参数的GPT - 3 LLM基准测试中,GB200的性能是H100的7倍,训练速度是H100的4倍 [23] - B200配备192GB HBM3e内存,足以提供高达8TB/s的带宽 [23] - 亚马逊、谷歌等主要客户预计将选择使用新芯片,英伟达携手云服务巨头通过云服务出售GB200的接入权,亚马逊云服务AWS将建立拥有2万颗GB200芯片的服务器集群 [24] 企业软件订阅产品NIM - 可让客户更容易地使用旧的英伟达GPU进行推理,允许公司继续使用已有的数亿个英伟达GPU [27] - 销售策略是让客户购买基于NVDA服务器(搭载之前几代GPU产品)的推理微服务,价格为每个GPU 4,500美元/年,解决了在GPU供给不足情况下推理应用不断增长的需求 [3][27] 针对Vision Pro的新服务 - NVIDIA Omniverse Cloud可连接到苹果公司混合头显Vision Pro,允许企业将3D应用中的交互式通用场景描述串流传输到Apple Vision Pro混合现实头显中,标志着工业设计和仿真领域向高效、互动和沉浸式体验迈出重要一步 [38] GR00T人形机器人项目 - 为英伟达正在为人形机器人制造商提供的AI平台,合作者包括1X Technologies、波士顿动力等公司 [28] - GR00T硬件基于英伟达Thor SoC芯片,搭载Blackwell架构下8比特800TFLOPS算力,支持英伟达新硬件,包含基于NVIDIA Blackwell架构的下一代GPU,配备变压器引擎,提供800万亿次浮点AI性能,可运行GR00T等多模态生成式AI模型,集成功能安全处理器、高性能CPU集群和100GB以太网带宽,简化了设计和集成工作 [2][15] - 由该平台提供支持的机器人,将通过观察人类行为来理解自然语言和模仿动作,以导航、适应和与现实世界互动 [39] 深化与车企的合作 - 深化与比亚迪等中国车企的合作,比亚迪将采纳其下一代车载芯片Drive Thor以提升车辆自动驾驶及其他数字化功能,Drive Thor预计明年进驻比亚迪汽车 [31] - 宣布与多家中国车企的合作扩展,包括比亚迪、小鹏以及广汽埃安旗下的Hyper品牌,此前吉利旗下的极氪汽车和理想汽车已宣布采用英伟达的Drive Thor技术 [2][31] - 宣布与美国软件公司Cerence合作,共同开发适用于车载计算的大型语言模型人工智能系统 [31]
VR、机器人、自动驾驶–Blackwell之外业务不断发展