GB200 Grace Blackwell超级芯片

搜索文档
云端算力竞赛新突破:创纪录英伟达GB200参与MLPerf测试,性能提升超两倍
硬AI· 2025-06-05 18:32
MLPerf Training v5.0测试结果 - CoreWeave联手英伟达和IBM使用2496块GB200 Blackwell芯片构成MLPerf史上最大规模的GB200 NVL72集群[1][2] - 该集群在Llama 3.1 405B模型训练中仅用27.3分钟完成流程,性能较相似规模集群提升超两倍[1][3] - 测试规模比此前云服务商提交结果大34倍,凸显CoreWeave云平台对严苛AI工作负载的适配能力[2][3] GB200 NVL72架构性能表现 - GB200 NVL72集群在最大规模测试中实现显著性能飞跃,体现架构优势[3] - CoreWeave称其专门构建的云平台具备AI工作负载所需的规模、性能和可靠性[3] MLPerf Training v5.0行业动态 - 本轮测试引入Llama 3.1 405B作为最大新基准模型,替代此前GPT3基准[5] - 收到来自20家机构的201项提交创纪录,行业参与度创新高[5][6] - 首次参与机构包括AMD、IBM等,联想提交首组功耗基准测试反映能效关注度提升[6] 测试模型与技术细节 - MLPerf Inference v5.0通过更新模型和场景保持衡量标准有效性[5] - Llama 3.1 405B基准提交量已超此前GPT3测试,显示大规模训练需求增长[5]
一文读懂老黄ComputeX演讲:这不是产品发布,这是“AI工业革命动员令”
华尔街见闻· 2025-05-19 21:50
2025年5月19日,英伟达创始人兼CEO黄仁勋在Computex 2025大会上,发表了一场长达两小时的重磅主题演讲。 从AI基础设施、芯片平台、企业AI,到机器人与数字孪生……老黄描绘了一个正在崛起的 AI工厂(AI Factory)新时代 。 过去,数据中心服务于传统应用;而今天的AI数据中心, 不再只是"数据中心" ,而是 AI工厂(AI Factory) :一个以电力为输入、以"Token"为产出的新型 智能工厂。 "英伟达不再只是技术公司,我们现在是一家 AI基础设施公司 。" 他强调,这是一场继电力、互联网之后的 第三次基础设施革命 —— 智能基础设施 。 "这不是一台服务器,这是一个AI工厂。你对它输入能源,它就会给你Token。" 此外,此次发布会还迎来GB200 系统升级。 英伟达计划Q3推出GB300,该芯片推理性能提升 1.5 倍、HBM内存提升 1.5 倍、网络带宽提升 2 倍,并与上一 代保持物理兼容性,实现100%液冷。 NVLink Fusion:开放芯片互联生态 重磅芯片发布:Grace Blackwell GB200 与 NVLink 架构 黄仁勋展示了NVLink Spi ...
直击黄仁勋Computex演讲:将于三季度推出下一代GB300系统、个人AI计算机DGX Spark已全面投产
华尔街见闻· 2025-05-19 12:18
公司动态 - 英伟达创始人兼CEO黄仁勋在台北国际电脑展(Computex 2025)开幕式发表主题演讲,分享AI与加速运算技术的最新突破和进展 [1] - 公司有望推出一款全新的CPU(首次)并发布RTX 50系列相关新闻 [1] - Project DIGITS的个人AI计算机DGX Spark已全面投产,即将在未来几周上市,面向个人用户 [1] - 公司正在为中国台湾的AI基础设施和生态系统建造第一台巨型AI超级计算机 [5] - Grace Blackwell系统已全面投入生产,被多家云服务提供商采纳并在社交媒体获得广泛认可 [5] - 计划本季度升级到Grace Blackwell GB300版本,配备升级版Blackwell芯片 [6] 技术突破 - 下一代超算实现每秒14.4TB全连接带宽,利用NVLink Spine等技术达到每秒130TB带宽 [5] - 系统整合72个Blackwell处理器或144个GPU芯片,配备两英里长铜线,拥有1.3万亿个晶体管 [5] - GB200 Grace Blackwell超级芯片展示,AI算力每10年提升约100万倍 [9] - 与台积电合作开发COOS-L新工艺,实现大规模芯片制造 [9] - 开发全球最快交换机NVLink,运行速度达7.2TB [9] - CUDA库可将人工智能代入5G/6G网络并进行计算 [11] - 推出Grace Blackwell:会思考的机器,作为机器人革命的基石 [13] 产品发布 - 手持RTX 5060 GPU并展示搭载该芯片的全新MSI笔记本电脑,将于五月上市 [17] - 推出Grace Blackwell系统,将普通计算机转变为强大的超级计算机 [5] - GB300版本推理性能提升1.5倍,HBM内存容量增加1.5倍,网络连接能力翻倍 [6] 行业趋势 - 展会以"AI Next"为主轴,聚焦"智慧运算&机器人""次世代科技"以及"未来移动"三大主题 [1] - 展会规模:1400家厂商参展,4800个摊位,展示面积8万平方公尺 [1] - 黄仁勋预测十年后人工智能将像互联网和电力一样无处不在 [19] - CUDA-X库应用于天气分析的Earth-2和深度学习的Megatron Dynamo等领域 [15]
全球首个!“英伟达亲儿子”CoreWeave大规模上线GB200服务器
硬AI· 2025-04-16 17:52
性能提升与行业记录 - 英伟达GB200 NVL72服务器相比前代Hopper GPU在1000亿参数模型训练中实现高达3倍性能提升 [3][8] - GB200 NVL72系统在MLPerf v5.0测试中刷新行业记录 提供前代H100芯片2-3倍性能提升 [3][7][8] - 通过优化大统一内存 FP4精度和72个GPU的NVLink域 Cohere获得显著更高吞吐量并缩短令牌生成时间 [8] 核心合作伙伴与部署进展 - CoreWeave成为首批大规模部署英伟达GB200 NVL72系统的云服务提供商 Cohere IBM和Mistral AI成为首批用户 [3][4] - CoreWeave与OpenAI合作 进一步巩固其作为AI基础设施提供商的领先地位 [5] - 英伟达承诺四年内向CoreWeave支付13亿美元租回自产芯片 双方构建紧密合作关系 [4] 技术优势与市场定位 - GB200 Grace Blackwell超级芯片在AI推理测试中创下新纪录 未优化架构即实现性能突破 [7][8] - CoreWeave强调工程实力和执行速度 多次成为首批运营最先进系统的公司 [4] - 在AI算力紧缺背景下 能提供最先进芯片组的云服务商占据市场竞争优势 [5]
HBM的大赢家
半导体芯闻· 2025-03-20 18:26
如果您希望可以时常见面,欢迎标星收藏哦~ 来源:内容编译自chosun,谢谢。 韩国芯片制造商 SK 海力士 3 月 19 日表示,该公司推出了第六代高带宽存储器 (HBM4),将用于 Nvidia 的下一代 AI 加速器。 在圣何塞举行的 Nvidia GTC 2025 上,SK Hynix 表示已向主要客户提供了首批 HBM4 12 层样 品。虽然该公司没有透露具体客户,但业内消息人士称,其中包括 Nvidia 和 Broadcom 等美国科 技巨头。 HBM 技术垂直堆叠内存,使其成为 Nvidia 等公司生产的 AI 芯片的关键组件。HBM4 提供超过 2 TB/s 的带宽,能够在一秒钟内处理超过 400 部全高清电影,每部电影约 5 GB。 SK Hynix 在一份声明中表示:"HBM4 比其前身 HBM3E 快 60% 以上,同时通过控制芯片翘曲 和改善散热来提高稳定性。" SK 海 力 士 在 HBM 开 发 方 面 一 直 处 于 业 界 领 先 地 位 , 于 2022 年 率 先 量 产 HBM3 , 2024 年 推 出 HBM3E 8层和12层版本。该公司计划在今年上半年开始量产HBM ...