DGX SuperPOD
搜索文档
今夜无显卡,老黄引爆Rubin时代,6颗芯狂飙5倍算力
36氪· 2026-01-06 17:40
英伟达Vera Rubin AI超算平台发布 - 在CES 2026上,英伟达正式发布并宣布其下一代AI芯片架构Vera Rubin已全面投产,预计2026年下半年面世[1][3] - 该平台旨在解决AI算力规模化难题,目标是将算力变得像电力一样廉价,推动AI大爆发[8][10] Vera Rubin平台架构与性能 - 平台采用系统性设计,首次将CPU、GPU、网络、存储和安全作为一个整体来设计,核心思路是将整个数据中心变成一台AI超算[13] - 平台由六大关键组件构成:Vera CPU、Rubin GPU、NVLink 6、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet[14] - Rubin GPU搭载第三代Transformer引擎,提供50 PFLOPS的NVFP4推理算力,性能达到上一代Blackwell GPU的5倍[16][27] - 引入专为智能体推理设计的Vera CPU,采用88个自研Olympus核心,I/O带宽和能效比直接翻倍[18] - NVLink 6提供单芯片400Gb/s交换能力,单GPU带宽3.6TB/s,Rubin NVL72机架带宽达260TB/s,超过整个互联网[22] - 集成计算单元(托盘)包含2颗Vera CPU、4颗Rubin GPU、1颗BlueField-4 DPU和8颗ConnectX-9网卡,算力达100 PetaFLOPS[24] 性能提升与成本降低 - 训练性能:Rubin架构训练模型速度达Blackwell架构的3.5倍(35 petaflops)[27] - 推理性能:推理任务速度达Blackwell的5倍(最高50 petaflops),单位token推理效率提升最高可达10倍,算力成本可降至原来的1/10[1][3][32] - 内存与带宽:HBM4内存带宽提升至22 TB/s,是上一代的2.8倍;单GPU NVLink互连带宽翻倍至3.6 TB/s[27] - 规模化训练:在超大规模MoE模型训练中,所需GPU数量相比Blackwell可减少至1/4,整体能耗显著下降[3][28] - 性能提升归因于NVLink 6提升互联带宽、Vera CPU与GPU协同调度减少空转、ConnectX-9与Spectrum-6深度协同突破集群规模限制[29] DGX SuperPOD与规模化部署 - 推出新一代DGX SuperPOD,连接多个Rubin NVL72机架形成更大AI计算集群,示例配置包含8个机架共576个GPU[37][39] - Rubin NVL72系统集成72块Rubin GPU、36块Vera CPU等组件,提供统一、安全的系统,可处理数千个Agentic AI智能体及数百万token上下文[41] - 该平台旨在提供开箱即用的AI基础设施,一次性解决数百个GPU互联与管理存储的问题[41] 安全与商用计划 - Rubin是首个支持第三代机密计算(Confidential Computing)的AI超算平台,实现模型参数、推理数据、用户请求的全链路加密[46] - 平台将由AWS、Microsoft Azure、Google Cloud、Meta、OpenAI等头部厂商首批部署,2026年下半年进入大规模商用阶段,下一代主流大模型预计将运行于此架构上[47] 自动驾驶与物理AI进展 - 发布端到端自动驾驶AI系统AlphaMayo,具备显式推理能力,能从摄像头输入到车辆动作执行全流程由模型完成,演示中实现全程0接管[51][53][55] - 宣布NVIDIA DRIVE AV软件首次搭载于全新梅赛德斯-奔驰CLA,提供L2级端到端驾驶[57] - 推出针对物理AI(Physical AI)的开源全家桶,包括模型、框架及基础设施,旨在加速机器人等具身智能发展[62] - 开源模型包括:世界模型Cosmos Transfer/Predict 2.5、推理模型Cosmos Reason 2、人形机器人模型Isaac GR00T N1.6,均已上线Hugging Face[64] - 发布开源框架Isaac Lab-Arena和统一调度平台NVIDIA OSMO,以缩短机器人开发周期[64][65] 边缘计算与硬件更新 - 推出全新Jetson T4000模组,将Blackwell架构带到边缘端,算力达1200 FP4 TFLOPS,是上一代的4倍,1000台起订单价1999美元,功耗70瓦[67][68][69] - 宣布Hugging Face上的开源机器人Reachy 2和Reachy Mini已完美适配英伟达Jetson平台[67] 产业观点与未来展望 - 公司认为计算产业正同时经历从传统计算走向AI以及整个软硬件栈底层重塑两次平台级转变,AI正成为全新的应用底座[72] - 指出智能体AI(Agentic AI)之后的下一个前沿是物理AI(Physical AI)[74] - 强调仿真模拟是物理AI体系的核心,AI需要在可控的数字环境中反复尝试以建立对世界的理解[85] - 提及像Perplexity这样同时调用多个顶尖模型的“多云协同”应用,代表了未来AI应用的基本形态[83] 其他产品信息 - 宣布DGX Station台式AI超算将于2026年春季上线,搭载GB300 Grace Blackwell Ultra芯片,拥有Petaflop级算力,支持在本地运行高达1万亿参数模型,LLM预训练速度达250,000 Token/秒[87][89] - 明确CES 2026没有消费级新GPU发布,连续五年在CES发布新硬件的传统终结,传闻中的RTX 50 Super系列或因GDDR7显存产能问题已取消[6][7]
美洲硬件- 聚焦企业人工智能数据准备情况-Americas Technology_ Hardware_ 2025 NetApp INSIGHT_ Enterprise AI data readiness in focus
2025-10-15 11:14
涉及的行业与公司 * 行业涉及企业级人工智能基础设施和数据管理[1] * 核心公司是NetApp (NTAP)[1] 其他提及的公司包括NVIDIA (NVDA) Dell (DELL) Cisco (CSCO) Google Cloud PureStorage DDN IBM Vast Weka HPE[2][6] 核心观点与论据:新产品发布 * NetApp发布新的AFX全闪存存储平台 针对企业AI工作负载 并获NVIDIA DGX SuperPod认证[2] * AFX是一个解耦系统 对于满足大规模AI工作负载的需求至关重要[2] * NetApp同时宣布新的AI Data Engine (AIDE)服务 该服务将原生运行在AFX设备上 以实现跨本地和云端数据的统一控制平台[2] * AIDE将利用NVIDIA AI Enterprise Software进行向量化和检索[2] * NetApp的产品发布符合更广泛的行业趋势 即供应商提供预先验证的AI基础设施设计以加速企业采用[2] * NVIDIA DGX SuperPod是一个全栈 预先验证的AI基础设施系统 包含NVIDIA的计算 网络和软件[2] * NVIDIA已认证少数存储供应商作为其合作伙伴 以解决DGX系统的高性能存储和吞吐量需求 认证供应商包括NetApp Dell PureStorage DDN IBM Vast和Weka HPE没有DGX SuperPod认证(但在2024年6月获得BasePod认证)[2] 核心观点与论据:数据准备的重要性 * NetApp强调 企业在部署生产级AI工作负载之前 需要花费大量精力来准备数据 这与Dell在其2025年SAM活动上的观点一致[1][5] * 公司指出 目前企业中很大比例的AI项目未能成功 原因是其数据尚未准备就绪[3] * NetApp概述了一个五阶段数据管道 将原始非结构化数据转换为AI可摄取的格式 包括(1)组织数据(发现 分类 并与特定AI项目对齐) (2)实施治理(安全性 访问控制 隐私和维护沿袭) (3)利用元数据(添加动态元数据以用于AI用例) (4)处理并转换为向量嵌入 (5)模型管理[3][5] * NetApp认为企业专注于数据准备的观点与Dell上周的讯息一致 即企业客户希望简化分散的数据流并增加数据访问[5] 核心观点与论据:合作伙伴关系与混合AI方法 * NetApp宣布(1)与Google Cloud扩展合作能力 (2)更新与Cisco的合作伙伴关系[6] * 与Google Cloud的合作包括在其Google Cloud NetApp Volumes合作伙伴关系中新增块存储能力 以及围绕缓存(FlexCache)和迁移(SnapMirror)的新功能 Google是NetApp最新的超大规模合作伙伴[6] * 新的AFX架构将与Cisco Nexus交换机集成 用于集群内连接 并将很快扩展到FlexPod AI[6] * FlexPod AI是Cisco和NetApp的联合超融合基础设施解决方案 包含NetApp存储(含新的AFX平台) Cisco Nexus交换机 Cisco UCS计算和Cisco Intersight管理软件[6] * 这些公告重申了企业的AI工作负载将像传统的云工作负载一样 采用混合模式 这将有利于来自Cisco和NetApp等可信供应商的灵活解决方案[6] 其他重要内容 * 该纪要基于2025年10月14日在拉斯维加斯举行的NetApp INSIGHT客户活动及投资者技术会议[1] * 纪要中包含了高盛对相关公司的评级信息 例如对Dell为买入(Buy)评级 目标价$148.77 对Cisco为中性(Neutral)评级 目标价$68.66[14]
German startup DeepL says latest Nvidia chips lets it translate the whole internet in just 18 days
CNBC· 2025-06-11 19:07
公司动态 - DeepL部署最新Nvidia系统 将整个互联网翻译时间从194天缩短至18天[1] - 公司正在使用Nvidia DGX SuperPOD系统 每个服务器机架包含36个B200 Grace Blackwell超级芯片[2] - 首席科学家表示升级后的基础设施将增强现有产品如Clarify的功能 Clarify是今年推出的确保翻译上下文准确性的工具[3] 技术进展 - Nvidia芯片被用于训练和运行大型AI模型 如DeepL开发的模型[2] - 技术进步使之前不可行的方案成为可能 公司持续追求此类突破[4] - 新系统为研究人员提供更强计算能力 用于开发更先进的AI模型[3] 行业趋势 - 初创公司正利用Nvidia高端产品构建AI应用 这被视为基础模型后的下一步发展[2] - Nvidia寻求扩大芯片客户群 目标不仅限于微软亚马逊等超大规模企业[1]