Workflow
GB200 Grace Blackwell超级芯片
icon
搜索文档
云端算力竞赛新突破:创纪录英伟达GB200参与MLPerf测试,性能提升超两倍
硬AI· 2025-06-05 18:32
MLPerf Training v5.0测试结果 - CoreWeave联手英伟达和IBM使用2496块GB200 Blackwell芯片构成MLPerf史上最大规模的GB200 NVL72集群[1][2] - 该集群在Llama 3.1 405B模型训练中仅用27.3分钟完成流程,性能较相似规模集群提升超两倍[1][3] - 测试规模比此前云服务商提交结果大34倍,凸显CoreWeave云平台对严苛AI工作负载的适配能力[2][3] GB200 NVL72架构性能表现 - GB200 NVL72集群在最大规模测试中实现显著性能飞跃,体现架构优势[3] - CoreWeave称其专门构建的云平台具备AI工作负载所需的规模、性能和可靠性[3] MLPerf Training v5.0行业动态 - 本轮测试引入Llama 3.1 405B作为最大新基准模型,替代此前GPT3基准[5] - 收到来自20家机构的201项提交创纪录,行业参与度创新高[5][6] - 首次参与机构包括AMD、IBM等,联想提交首组功耗基准测试反映能效关注度提升[6] 测试模型与技术细节 - MLPerf Inference v5.0通过更新模型和场景保持衡量标准有效性[5] - Llama 3.1 405B基准提交量已超此前GPT3测试,显示大规模训练需求增长[5]
一文读懂老黄ComputeX演讲:这不是产品发布,这是“AI工业革命动员令”
华尔街见闻· 2025-05-19 21:50
AI基础设施革命 - 英伟达定位从技术公司转型为AI基础设施公司,提出智能基础设施是继电力、互联网后的第三次基础设施革命 [3] - AI数据中心升级为"AI工厂",以电力为输入、Token为产出,颠覆传统数据中心模式 [2] - NVLink Spine互联模块重70磅,含两英里电缆,提供130TB/s带宽,单节点性能等效2018年Sierra超算 [4] 芯片与硬件创新 - 发布Grace Blackwell GB200超级芯片:双芯封装连接72颗GPU,Q3将推出GB300,推理性能提升1.5倍,HBM内存提升1.5倍,网络带宽提升2倍 [4][6] - 推出NVLink Fusion开放生态:支持第三方CPU/ASIC/TPU与英伟达GPU互联,带宽比PCIe高14倍,吸引富士通、高通、联发科等厂商参与 [8][9][10] - 个人超算DGX Spark投产,面向AI研究人员,支持用户定制化拥有超级计算机 [11][12] 企业AI与Agentic AI - 发布RTX Pro企业AI服务器:兼容传统x86/Windows,支持图形化AI代理运行,包括游戏场景 [14] - 提出Agentic AI将作为"数字员工"融入企业,涵盖客服、市场、工程师等角色,与CrowdStrike、Red Hat等合作部署AI Ops全栈支持 [14] - 推出AI语义检索框架Nemo + NeMo Retriever + IQ,联合Dell、IBM等部署企业级GPU存储系统,处理非结构化数据 [16][17] 机器人与自动驾驶 - 机器人被视为下一个万亿美元产业,Isaac Groot平台搭载Jetson Thor处理器,覆盖自动驾驶至人机交互场景 [18][22] - 与梅赛德斯合作全球自动驾驶车队,2025年实现端到端技术落地 [21] - 推出物理AI引擎Newton:GPU加速、支持超实时操作,7月开源并整合至ISAAC模拟器 [23] 合作伙伴与生态 - 展示广泛合作伙伴网络,包括Acer、Cisco、IBM、NetApp等,覆盖AI工厂、代理、机器人领域 [15] - 开放架构策略允许客户混合使用英伟达与非英伟达硬件,保持生态灵活性 [10][11]
直击黄仁勋Computex演讲:将于三季度推出下一代GB300系统、个人AI计算机DGX Spark已全面投产
华尔街见闻· 2025-05-19 12:18
公司动态 - 英伟达创始人兼CEO黄仁勋在台北国际电脑展(Computex 2025)开幕式发表主题演讲,分享AI与加速运算技术的最新突破和进展 [1] - 公司有望推出一款全新的CPU(首次)并发布RTX 50系列相关新闻 [1] - Project DIGITS的个人AI计算机DGX Spark已全面投产,即将在未来几周上市,面向个人用户 [1] - 公司正在为中国台湾的AI基础设施和生态系统建造第一台巨型AI超级计算机 [5] - Grace Blackwell系统已全面投入生产,被多家云服务提供商采纳并在社交媒体获得广泛认可 [5] - 计划本季度升级到Grace Blackwell GB300版本,配备升级版Blackwell芯片 [6] 技术突破 - 下一代超算实现每秒14.4TB全连接带宽,利用NVLink Spine等技术达到每秒130TB带宽 [5] - 系统整合72个Blackwell处理器或144个GPU芯片,配备两英里长铜线,拥有1.3万亿个晶体管 [5] - GB200 Grace Blackwell超级芯片展示,AI算力每10年提升约100万倍 [9] - 与台积电合作开发COOS-L新工艺,实现大规模芯片制造 [9] - 开发全球最快交换机NVLink,运行速度达7.2TB [9] - CUDA库可将人工智能代入5G/6G网络并进行计算 [11] - 推出Grace Blackwell:会思考的机器,作为机器人革命的基石 [13] 产品发布 - 手持RTX 5060 GPU并展示搭载该芯片的全新MSI笔记本电脑,将于五月上市 [17] - 推出Grace Blackwell系统,将普通计算机转变为强大的超级计算机 [5] - GB300版本推理性能提升1.5倍,HBM内存容量增加1.5倍,网络连接能力翻倍 [6] 行业趋势 - 展会以"AI Next"为主轴,聚焦"智慧运算&机器人""次世代科技"以及"未来移动"三大主题 [1] - 展会规模:1400家厂商参展,4800个摊位,展示面积8万平方公尺 [1] - 黄仁勋预测十年后人工智能将像互联网和电力一样无处不在 [19] - CUDA-X库应用于天气分析的Earth-2和深度学习的Megatron Dynamo等领域 [15]
全球首个!“英伟达亲儿子”CoreWeave大规模上线GB200服务器
硬AI· 2025-04-16 17:52
性能提升与行业记录 - 英伟达GB200 NVL72服务器相比前代Hopper GPU在1000亿参数模型训练中实现高达3倍性能提升 [3][8] - GB200 NVL72系统在MLPerf v5.0测试中刷新行业记录 提供前代H100芯片2-3倍性能提升 [3][7][8] - 通过优化大统一内存 FP4精度和72个GPU的NVLink域 Cohere获得显著更高吞吐量并缩短令牌生成时间 [8] 核心合作伙伴与部署进展 - CoreWeave成为首批大规模部署英伟达GB200 NVL72系统的云服务提供商 Cohere IBM和Mistral AI成为首批用户 [3][4] - CoreWeave与OpenAI合作 进一步巩固其作为AI基础设施提供商的领先地位 [5] - 英伟达承诺四年内向CoreWeave支付13亿美元租回自产芯片 双方构建紧密合作关系 [4] 技术优势与市场定位 - GB200 Grace Blackwell超级芯片在AI推理测试中创下新纪录 未优化架构即实现性能突破 [7][8] - CoreWeave强调工程实力和执行速度 多次成为首批运营最先进系统的公司 [4] - 在AI算力紧缺背景下 能提供最先进芯片组的云服务商占据市场竞争优势 [5]