Workflow
NVIDIA RTX PRO 6000 Blackwell Server Edition GPU
icon
搜索文档
NVIDIA Launches Space Computing, Rocketing AI Into Orbit
Globenewswire· 2026-03-17 04:03
文章核心观点 - NVIDIA宣布其最新的加速计算平台正在开启太空创新的新时代,将AI计算能力带入轨道数据中心、地理空间智能和自主太空操作领域,旨在实现从地面到太空、太空到太空的无缝AI应用 [1][2][6] 产品发布与技术性能 - **NVIDIA Space-1 Vera Rubin模块**:作为NVIDIA太空加速平台的最新部分,其搭载的Rubin GPU相比NVIDIA H100 GPU,为太空推理提供高达**25倍**的AI计算能力提升 [3] - **NVIDIA IGX Thor与Jetson Orin平台**:提供高能效、高性能的AI推理、图像传感和加速数据处理,在紧凑模块中实现真正的在轨边缘计算 [4] - **NVIDIA数据中心平台(如RTX PRO 6000 Blackwell服务器版GPU)**:为地理空间智能提供高吞吐量、按需的地面处理,在分析海量图像存档时,相比传统的基于CPU的批处理系统性能提升高达**100倍** [5] - **Space-1 Vera Rubin模块**:通过紧密集成的CPU-GPU架构和高带宽互连,提供处理太空仪器海量数据流所需的性能和内存,实现大规模语言模型和高级基础模型直接在太空运行 [10] - **IGX Thor平台**:为关键任务边缘环境设计,提供工业级耐用性和企业软件支持,支持实时AI处理、功能安全、安全启动和自主操作 [11] - **Jetson Orin平台**:为边缘部署打造的超紧凑、高能效模块,专为尺寸、重量和功率受限的环境优化,实现航天器上视觉、导航和传感器数据的实时处理 [12] 合作伙伴与行业应用 - 行业领导者包括Aetherflux、Axiom Space、Kepler Communications、Planet、Sophia Space和Starcloud正在使用NVIDIA加速计算平台为下一代太空任务提供动力 [7][17] - **Aetherflux**:利用Space-1 Vera Rubin模块在轨提供高性能、高能效的边缘AI,实现自主操作和关键任务服务,解锁可扩展的太空AI基础设施 [8] - **Kepler Communications**:利用Jetson Orin将先进AI直接引入卫星,智能管理和路由星座数据,打造更智能、高效的全球实时连接网络 [8] - **Planet**:通过整合NVIDIA从太空到地面的加速平台,利用CorrDiff AI模型,近乎实时地将原始像素转化为可操作的洞察,增强对物理世界的索引能力 [8] - **Sophia Space**:利用Jetson Orin将AI能力嵌入其模块化、被动冷却的托管计算平台,在严格的尺寸、重量和功率限制下支持实时处理和自主操作 [8] - **Starcloud**:与NVIDIA合作,旨在将真正的超大规模级AI计算带入轨道,在数据源头进行处理,减少对下行链路的依赖,首次让客户能在太空运行训练和推理工作负载 [8] 市场背景与需求驱动 - 商业太空产业的快速增长意味着对在轨实时数据处理的需求增加 [9] - 随着太空生态系统的扩展,其产生的数据量也在增长,大量收集的数据将与地球上数百PB的历史存档数据结合,以支持大规模地理空间趋势分析 [18] 地理空间智能处理 - 传统上,基于地面的地理空间成像处理系统运行在CPU上,导致计算周转时间较长 [19] - NVIDIA RTX PRO 6000 Blackwell服务器版GPU为地面处理相比传统架构带来巨大加速 [19] - 利用CUDA的灵活性,地理空间智能客户可以跨云、边缘地面站和在轨环境调整其处理流程,并能快速整合新的AI能力,从海量图像存档中动态提取洞察 [20] - 具体应用方向包括:灾害响应与环境监测(如识别野火、洪水和石油泄漏)、气候与天气预报(追踪天气模式和长期气候变化)、基础设施与资源管理(自动监测全球能源电网、交通网络和农业健康状况) [25] 产品上市信息 - NVIDIA IGX Thor和Jetson Orin平台以及NVIDIA RTX PRO 6000 Blackwell服务器版GPU现已上市,NVIDIA Space-1 Vera Rubin模块将在稍后日期推出 [20]
Compal Showcases Flagship AI Server SGX30-2 built on NVIDIA HGX™ B300 at SC25, Leveraging New Technology to Drive the Next generation of Intelligent Data Centers
Prnewswire· 2025-11-17 22:00
公司产品发布 - 公司在SC25上发布新一代AI和HPC服务器产品线,重点展示基于NVIDIA Blackwell架构的平台、创新内存互连技术和多元化散热解决方案 [1] - 旗舰AI服务器SGX30-2基于NVIDIA HGX B300平台,支持多达8个NVIDIA Blackwell Ultra GPU,通过第五代NVLink实现超高带宽GPU间数据交换,并配备双Intel Xeon 6处理器 [2] - 另一款亮点产品SX420-2A基于NVIDIA MGX参考架构,采用4U高密度设计,支持多达8个NVIDIA RTX PRO 6000 Blackwell服务器版GPU,可配置NVIDIA BlueField-3 DPU和ConnectX-8 SuperNIC [3] - NVIDIA RTX PRO 6000 Blackwell GPU相比前一代,在AI推理和物理模拟工作负载上性能提升超过5倍,同时显著提升每美元性能 [3] 技术创新与架构 - 公司展示用于内存扩展和数据流优化的下一代架构,通过PCIe接口在GPU内存和存储间建立直接数据路径,结合智能DMA卸载和低延迟数据传输机制 [4] - 该架构将传统NVMe存储转变为内存扩展层,实现接近DRAM的访问速度并减少CPU工作负载,同时通过RDMA技术实现跨节点内存共享和灵活资源分配 [4] - 通过整合关键技术,公司展示了一个统一、可重构且节能的AI数据中心框架,从传统基于PCIe的系统向新一代GPU直接存储架构演进 [5] - 公司副总裁指出,生成式AI和HPC正推动数据中心从以计算为中心转向以数据为中心的架构,核心是存储即内存 [7][8] 散热与能效管理 - 公司在SC25上重点展示涵盖气冷、液冷和浸没式冷却技术的多层级散热组合,通过创新的热管理设计,使AI服务器在极高功率密度下保持稳定性能和最佳能效 [6] - 创新的散热解决方案是实现可持续数据中心运营的关键一步 [6]