GB200 NVL72服务器

搜索文档
华为昇腾910系列2025年出货量调研
傅里叶的猫· 2025-05-20 21:00
博通ASIC芯片 - 博通定制ASIC芯片(TPUv7p/MTIA2)预计2026年加速放量 可能在下半年用于OpenAI的Strawberry和苹果的Baltra项目 [1] - 2024年博通定制ASIC芯片占使用量的70%-80% 为AI ASIC领域绝对龙头 该数据未包含Google TPU等自产自销产品 [1] 英伟达GPU - 沙特UMAIN项目未来5年将部署4000台GB200 NVL72服务器 对应28万颗英伟达GPU [1] - 阿联酋G42项目承诺每年进口50万颗英伟达GB200 GPU 价值150亿美元 但该数字持续性存疑 [1] AMD GPU - 沙特UMAIN项目同期将部署35万颗AMD GPU [1] 华为昇腾芯片 - 预计昇腾910系列2025年订单超70万颗 下一代昇腾920将于2026年推出 [2] - 昇腾910B当前良率仅30% 与摩根士丹利此前报告数据一致 [2] - 其他机构预测2025年昇腾910C出货45万张 910B出货40万张 [3] - 另有预测显示910B今年出货量可能与去年持平 约30-40万张 而910C可能超过40万张 [3] - 综合判断昇腾910系列今年出货量有望达70万张以上 [5]
全球首个!“英伟达亲儿子”CoreWeave大规模上线GB200服务器
硬AI· 2025-04-16 17:52
点击 上方 硬AI 关注我们 测试结果显示,相比前代英伟达Hopper GPU,GB200 NVL72服务器能帮助Cohere在1000亿参数模型的训练实现高达3 倍的性能提升,此外,IBM和Mistral AI也已成为CoreWeave GB200云服务的首批用户。 "世界各地的企业和组织正在竞相将推理模型转化为代理型人工智能应用,这将改变人们的工作和娱 乐方式。" 硬·AI 作者 | 李笑寅 编辑 | 硬 AI CoreWeave再度抢占先机,率先部署英伟达GB200系统,AI巨头争相入局。 英伟达今日在其博客上宣布, AI云计算提供商CoreWeave已成为首批大规模部署英伟达GB200 NVL72 系统的云服务提供商之一。Cohere、IBM和Mistral AI已成为首批用户。 根据最新MLPerf基准测试,这些系统提供了前代H100芯片2-3倍的性能提升,将显著加速大模型训练和推 理能力。 CoreWeave首席执行官Michael Intrator表示,这一成就既展示了公司的工程实力和执行速度,也体现了 其对下一代AI发展的专注: "CoreWeave的设计就是为了更快速地行动——我们一次又一次 ...