英伟达B系列GPU现状 - 英伟达正在研发B20/B30/B40替代被禁的H20 但B系列定价偏高且性能不足 并改用GDDR显存而非HBM 导致潜在客户较少 [1] GH200服务器核心优势 - 采用超级芯片设计 集成Grace CPU和Hopper GPU 通过NVLink-C2C实现900GB/s双向带宽 比PCIe Gen5快7倍且功耗降低5倍以上 [2] - 提供高达624GB统一内存(144GB HBM3e+480GB LPDDR5X) 为AI/HPC应用处理TB级数据奠定基础 [2][7] - Grace CPU性能功耗比x86平台提高1倍 配备72核Neoverse V2 内存带宽比DDR5高53%而功耗仅1/8 [3] - Hopper GPU支持第四代Tensor Core AI训练速度比A100快9倍 推理速度快30倍 并支持MIG分区隔离 [3] 产品发展历程 - 2023年5月COMPUTEX首次发布 定位生成式AI和大规模数据分析平台 同年5月底进入量产 [4] - HBM3版本2023年底上市 HBM3e版本2024年Q2在SIGGRAPH推出 [4] 性能参数对比 算力表现 - FP8算力达3958 TFLOPS(与H100持平) FP16/BF16算力1979 TFLOPS 系统级性能比H100高17% [7][9] - H20算力仅H100的15%(FP8 592 TFLOPS FP16 296 TFLOPS) [7][9] 显存特性 - 144GB HBM3e显存带宽5TB/s 显著高于H100的80GB HBM3(3.35TB/s) [7][9] - 创新统一内存架构使GPU可直接访问624GB总内存(HBM3e+LPDDR5X) [7] 互联技术 - NVLink-C2C实现900GB/s CPU-GPU直连 多卡互联带宽900GB/s 远超H20的400GB/s [7][9] 市场定位与性价比 - 面向超大规模模型和Exascale计算 2卡服务器价格约100万 相比8卡H100服务器(220万)具有TCO优势 [10] - H20定位合规市场 8卡服务器120万 性价比低但为大模型推理部署的可行选项 [10] - 特别适合生成式AI、推荐系统和图分析等CPU-GPU协同密集型任务 [10]
比H20性价比更高的AI服务器