Grace Blackwell超级芯片

搜索文档
【环球财经】法国米斯特拉尔人工智能公司与英伟达宣布云平台合作
新华财经· 2025-06-13 07:02
合作内容 - 法国科技初创企业米斯特拉尔人工智能公司与美国芯片企业英伟达公司达成合作,共同探索建立名为Mistral Compute的云平台 [2] - Mistral Compute云平台是一款集成式基础设施产品,旨在支持大规模人工智能模型的开发和部署 [2] - 该产品将搭载18000颗Grace Blackwell"超级芯片",单价约在3万至7万美元之间 [2] 平台功能 - Mistral Compute旨在为政府机构和企业提供完整的人工智能基础架构,包括计算能力、软件解决方案、云 API、托管服务和本地部署等 [2] - 所有服务均将在欧洲托管和运营 [2] 战略意义 - 合作体现出米斯特拉尔人工智能公司已开始进军从算法设计到技术基础设施的整个价值链 [2] - 合作体现出欧洲层面增强人工智能技术自主的趋势 [2] - 该项目投资额达数十亿欧元,旨在确保"战略自主",巩固"欧洲技术领导地位" [3] - 该云平台是"完全独立"的,将使用户在使用人工智能技术时不再依赖某些美国供应商 [3] 各方表态 - 法国总统马克龙将这一合作称为"历史性的",认为这标志着欧洲人工智能发展的模式转变及技术主权的增强 [3] - 英伟达公司总裁兼首席执行官黄仁勋表示,将在两年内把欧洲人工智能的算力提高十倍 [3] - 英伟达将在未来几年向欧洲投资"数十亿美元",计划加强与欧洲制造业巨头的合作关系,协助多个欧洲国家建立技术中心 [3]
英伟达进击欧洲:开设AI工厂,加速量子计算
21世纪经济报道· 2025-06-12 08:42
欧洲AI基础设施合作计划 - 公司与法国、英国、德国、意大利等欧洲国家的企业展开AI合作,并在德国、瑞典、意大利、西班牙、英国、芬兰建立AI技术中心 [1] - 在法国与Mistral AI合作构建由18000个Grace Blackwell系统驱动的云平台,计划2026年扩展至多节点 [1] - 在英国与Nebius和Nscale合作部署14000个Blackwell GPU驱动新数据中心 [1] - 在德国为欧洲制造商构建全球首个工业AI云,配备10000个Blackwell GPU [1] - 在意大利与Domyn及政府合作开发Domyn Large Colosseum推理模型,使用Grace Blackwell超级芯片 [1] 欧洲AI市场发展趋势 - 欧洲加快AI发展步伐,强调"主权AI"以应对数据隐私、国家安全和产业竞争需求 [2] - 法国计划投资1090亿欧元建设欧洲版"星际之门",欧盟规划约2000亿欧元用于"InvestAI计划" [2] - 公司通过合作助力欧洲AI基建,创始人称AI工厂是创造收入的设施,AI成为基础设施和增长型制造业 [2] 公司战略与产品技术 - 公司拓展海外市场以对冲政策风险,为新产品寻找客户,尤其关注Blackwell架构产品 [3] - Blackwell架构在单代内实现30-40倍性能提升,GB200有120万个零件,涉及150家工厂和200多个技术合作伙伴,已转向GB300并投入生产 [3] - GB200 NVL72系统加速量子计算产业发展,输出量子训练数据比CPU技术快4000倍,解码算法速度提升500倍 [5] - 预计2025年5月GB200 NVL72机架全球产量达2000-2500台,较4月增长显著,第二季度整体产量或达5000-6000台 [6] 量子计算与AI融合 - 公司借助GB200 NVL72平台与CUDA-Q软件栈推动AI与量子计算协同发展 [5] - 量子纠错因GB200 NVL72的性能提升成为可行方案,AI成为量子技术落地应用的关键引擎 [5] - 公司与欧洲研究机构合作推进量子计算技术 [5] 全栈式布局欧洲市场 - 公司通过主权AI平台、电信基础设施联动、技术研究中心布局、工业转型服务及量子技术融合加码欧洲AI市场 [6]
云端算力竞赛新突破:创纪录英伟达GB200参与MLPerf测试,性能提升超两倍
硬AI· 2025-06-05 18:32
MLPerf Training v5.0测试结果 - CoreWeave联手英伟达和IBM使用2496块GB200 Blackwell芯片构成MLPerf史上最大规模的GB200 NVL72集群[1][2] - 该集群在Llama 3.1 405B模型训练中仅用27.3分钟完成流程,性能较相似规模集群提升超两倍[1][3] - 测试规模比此前云服务商提交结果大34倍,凸显CoreWeave云平台对严苛AI工作负载的适配能力[2][3] GB200 NVL72架构性能表现 - GB200 NVL72集群在最大规模测试中实现显著性能飞跃,体现架构优势[3] - CoreWeave称其专门构建的云平台具备AI工作负载所需的规模、性能和可靠性[3] MLPerf Training v5.0行业动态 - 本轮测试引入Llama 3.1 405B作为最大新基准模型,替代此前GPT3基准[5] - 收到来自20家机构的201项提交创纪录,行业参与度创新高[5][6] - 首次参与机构包括AMD、IBM等,联想提交首组功耗基准测试反映能效关注度提升[6] 测试模型与技术细节 - MLPerf Inference v5.0通过更新模型和场景保持衡量标准有效性[5] - Llama 3.1 405B基准提交量已超此前GPT3测试,显示大规模训练需求增长[5]
一文读懂老黄ComputeX演讲:这不是产品发布,这是“AI工业革命动员令”
华尔街见闻· 2025-05-19 21:50
AI基础设施革命 - 英伟达定位从技术公司转型为AI基础设施公司,提出智能基础设施是继电力、互联网后的第三次基础设施革命 [3] - AI数据中心升级为"AI工厂",以电力为输入、Token为产出,颠覆传统数据中心模式 [2] - NVLink Spine互联模块重70磅,含两英里电缆,提供130TB/s带宽,单节点性能等效2018年Sierra超算 [4] 芯片与硬件创新 - 发布Grace Blackwell GB200超级芯片:双芯封装连接72颗GPU,Q3将推出GB300,推理性能提升1.5倍,HBM内存提升1.5倍,网络带宽提升2倍 [4][6] - 推出NVLink Fusion开放生态:支持第三方CPU/ASIC/TPU与英伟达GPU互联,带宽比PCIe高14倍,吸引富士通、高通、联发科等厂商参与 [8][9][10] - 个人超算DGX Spark投产,面向AI研究人员,支持用户定制化拥有超级计算机 [11][12] 企业AI与Agentic AI - 发布RTX Pro企业AI服务器:兼容传统x86/Windows,支持图形化AI代理运行,包括游戏场景 [14] - 提出Agentic AI将作为"数字员工"融入企业,涵盖客服、市场、工程师等角色,与CrowdStrike、Red Hat等合作部署AI Ops全栈支持 [14] - 推出AI语义检索框架Nemo + NeMo Retriever + IQ,联合Dell、IBM等部署企业级GPU存储系统,处理非结构化数据 [16][17] 机器人与自动驾驶 - 机器人被视为下一个万亿美元产业,Isaac Groot平台搭载Jetson Thor处理器,覆盖自动驾驶至人机交互场景 [18][22] - 与梅赛德斯合作全球自动驾驶车队,2025年实现端到端技术落地 [21] - 推出物理AI引擎Newton:GPU加速、支持超实时操作,7月开源并整合至ISAAC模拟器 [23] 合作伙伴与生态 - 展示广泛合作伙伴网络,包括Acer、Cisco、IBM、NetApp等,覆盖AI工厂、代理、机器人领域 [15] - 开放架构策略允许客户混合使用英伟达与非英伟达硬件,保持生态灵活性 [10][11]
直击黄仁勋Computex演讲:将于三季度推出下一代GB300系统、个人AI计算机DGX Spark已全面投产
华尔街见闻· 2025-05-19 12:18
公司动态 - 英伟达创始人兼CEO黄仁勋在台北国际电脑展(Computex 2025)开幕式发表主题演讲,分享AI与加速运算技术的最新突破和进展 [1] - 公司有望推出一款全新的CPU(首次)并发布RTX 50系列相关新闻 [1] - Project DIGITS的个人AI计算机DGX Spark已全面投产,即将在未来几周上市,面向个人用户 [1] - 公司正在为中国台湾的AI基础设施和生态系统建造第一台巨型AI超级计算机 [5] - Grace Blackwell系统已全面投入生产,被多家云服务提供商采纳并在社交媒体获得广泛认可 [5] - 计划本季度升级到Grace Blackwell GB300版本,配备升级版Blackwell芯片 [6] 技术突破 - 下一代超算实现每秒14.4TB全连接带宽,利用NVLink Spine等技术达到每秒130TB带宽 [5] - 系统整合72个Blackwell处理器或144个GPU芯片,配备两英里长铜线,拥有1.3万亿个晶体管 [5] - GB200 Grace Blackwell超级芯片展示,AI算力每10年提升约100万倍 [9] - 与台积电合作开发COOS-L新工艺,实现大规模芯片制造 [9] - 开发全球最快交换机NVLink,运行速度达7.2TB [9] - CUDA库可将人工智能代入5G/6G网络并进行计算 [11] - 推出Grace Blackwell:会思考的机器,作为机器人革命的基石 [13] 产品发布 - 手持RTX 5060 GPU并展示搭载该芯片的全新MSI笔记本电脑,将于五月上市 [17] - 推出Grace Blackwell系统,将普通计算机转变为强大的超级计算机 [5] - GB300版本推理性能提升1.5倍,HBM内存容量增加1.5倍,网络连接能力翻倍 [6] 行业趋势 - 展会以"AI Next"为主轴,聚焦"智慧运算&机器人""次世代科技"以及"未来移动"三大主题 [1] - 展会规模:1400家厂商参展,4800个摊位,展示面积8万平方公尺 [1] - 黄仁勋预测十年后人工智能将像互联网和电力一样无处不在 [19] - CUDA-X库应用于天气分析的Earth-2和深度学习的Megatron Dynamo等领域 [15]
全球首个!“英伟达亲儿子”CoreWeave大规模上线GB200服务器
硬AI· 2025-04-16 17:52
性能提升与行业记录 - 英伟达GB200 NVL72服务器相比前代Hopper GPU在1000亿参数模型训练中实现高达3倍性能提升 [3][8] - GB200 NVL72系统在MLPerf v5.0测试中刷新行业记录 提供前代H100芯片2-3倍性能提升 [3][7][8] - 通过优化大统一内存 FP4精度和72个GPU的NVLink域 Cohere获得显著更高吞吐量并缩短令牌生成时间 [8] 核心合作伙伴与部署进展 - CoreWeave成为首批大规模部署英伟达GB200 NVL72系统的云服务提供商 Cohere IBM和Mistral AI成为首批用户 [3][4] - CoreWeave与OpenAI合作 进一步巩固其作为AI基础设施提供商的领先地位 [5] - 英伟达承诺四年内向CoreWeave支付13亿美元租回自产芯片 双方构建紧密合作关系 [4] 技术优势与市场定位 - GB200 Grace Blackwell超级芯片在AI推理测试中创下新纪录 未优化架构即实现性能突破 [7][8] - CoreWeave强调工程实力和执行速度 多次成为首批运营最先进系统的公司 [4] - 在AI算力紧缺背景下 能提供最先进芯片组的云服务商占据市场竞争优势 [5]
HBM的大赢家
半导体芯闻· 2025-03-20 18:26
SK海力士推出第六代HBM4存储器 - 公司于3月19日推出第六代高带宽存储器HBM4,将用于Nvidia下一代AI加速器[1] - 已向Nvidia和Broadcom等主要客户提供首批HBM4 12层样品[1] - HBM4提供超过2TB/s带宽,比前代HBM3E快60%以上,并改善散热稳定性[1] - 技术垂直堆叠内存,1秒可处理400部5GB全高清电影[1] HBM技术路线图与市场地位 - 公司计划2025年上半年量产HBM3E 16层,下半年量产HBM4 12层,2026年量产HBM4 16层[1] - 2024年已推出HBM3E 8层和12层版本[1] - 2023年占据全球HBM市场65%份额,三星32%,美光3%[2] - 仍是Nvidia最新AI芯片主要供应商[2] 与Nvidia的合作进展 - Nvidia下一代AI芯片"Rubin"预计配备8-12个HBM4单元[2] - 在GTC 2025展示HBM4原型、HBM3E 12层芯片及Nvidia GB200超级芯片[2] - 公司将HBM4量产计划提前约一年以配合客户需求[2] 第六代DDR5 DRAM技术突破 - 成功开发全球首个1c工艺DDR5 DRAM,采用10纳米级精细工艺[3] - 1c技术可提高内存性能并降低功耗,对HPC和AI发展至关重要[4] - 技术突破有望提升HBM性能,通过缩小DRAM单元尺寸增加容量[4] - 芯片小型化对HBM热管理产生积极影响[4]