Workflow
Computer Hardware
icon
搜索文档
Supermicro Advances Enterprises' Adoption of Accelerated Computing Across AI Factory, Data Center, and Edge with Expanded Portfolio Featuring NVIDIA RTX PRO Blackwell Server Edition GPUs
Prnewswire· 2026-03-18 21:05
产品组合扩展与核心发布 - Super Micro Computer, Inc. (SMCI) 宣布扩展其企业解决方案组合,新增支持NVIDIA RTX PRO 4500 Blackwell服务器版GPU和NVIDIA Vera CPU的系统,以满足AI和图形计算应用日益增长的需求[1][2] - 新系统将NVIDIA RTX PRO 4500 Blackwell服务器版GPU的加速能力,以针对企业数据中心和边缘环境优化的外形规格推向市场,这些环境此前因空间、功耗和冷却限制而难以部署高密度计算基础设施[1] - 公司提供经过测试和验证的NVIDIA认证系统,保证与NVIDIA RTX PRO Blackwell GPU、NVIDIA网络以及NVIDIA AI Enterprise和Omniverse库的兼容性,并支持广泛的认证第三方应用以加速企业工作负载[1] 技术规格与性能优势 - 搭载NVIDIA RTX PRO Blackwell GPU的系统可直接替换标准的1U和2U机架式企业服务器,与仅使用CPU的计算相比,能为特定工作负载带来显著的加速提升,且易于集成到现有数据中心,对现有机架、电源或冷却基础设施的改动需求极小[3] - 新的NVIDIA RTX PRO 4500 Blackwell GPU采用单槽、高能效设计,为苛刻的数据处理、AI视频和推理工作负载提供突破性性能[4] - 针对紧凑型边缘AI解决方案,系统支持多达4个风冷NVIDIA RTX PRO Blackwell GPU,且每个GPU的功耗可低至165瓦,使组织能够在靠近数据源的地方处理AI推理请求和图形工作负载[7] 解决方案分类与应用场景 - **大规模AI解决方案**:采用4U和5U系统设计,旨在实现最大GPU容量,并在传统风冷环境中优化散热性能。每个节点支持多达8个NVIDIA RTX PRO Blackwell GPU,适用于大规模AI推理、虚拟化和媒体/图形工作负载[5] - **企业AI和数据中心解决方案**:采用行业标准1U和2U外形规格,旨在轻松替换传统的纯CPU计算硬件,无需重新设计数据中心。系统支持多达6个NVIDIA RTX PRO Blackwell GPU,为空间、机架功率和冷却基础设施有限的数据中心环境提供平衡的加速与效率。产品组合还包括基于NVIDIA Vera CPU的新型2U架构,专为瞄准下一代智能体AI部署的组织构建[6] - **紧凑型边缘AI解决方案**:采用针对能效优化的系统设计,旨在将强大的加速能力带到通常存在严重散热和功耗限制的边缘环境。提供1U和2U短深度机箱外形规格[7] 公司战略与市场定位 - 公司总裁兼首席执行官Charles Liang表示,随着各类企业持续加快AI采用步伐,Supermicro再次引领行业,将新的NVIDIA加速技术推向市场,平衡性能与效率,在最需要的地方实现加速计算[2] - 公司通过其灵活、模块化的“积木式解决方案”架构支持NVIDIA RTX PRO Blackwell GPU,帮助企业缩短上线时间,使其能更快地从基础设施投资中实现价值[2] - Supermicro是一家全球领先的应用优化全IT解决方案提供商,致力于为企业、云、AI和5G电信/边缘IT基础设施提供率先上市的创新。公司是提供服务器、AI、存储、物联网、交换系统、软件和支持服务的全IT解决方案供应商[9] - 公司的“积木式解决方案”产品组合允许客户从广泛的系统家族中选择,这些系统由灵活可重复使用的构建块组成,支持全面的外形规格、处理器、内存、GPU、存储、网络、电源和冷却解决方案,以优化其确切的工作负载和应用[9]
ASUS Republic of Gamers Strix Laptop Lineup Returns With the Latest Intel Core Ultra 9 290HX Plus Processors
Prnewswire· 2026-03-18 01:00
产品发布核心信息 - 华硕旗下玩家国度(ROG)品牌于2026年3月17日发布了2026款ROG Strix G16和G18游戏笔记本电脑,并预告旗舰型号ROG Strix SCAR 18将于2026年第二季度发布 [1] - 新款Strix G系列笔记本旨在为竞技电竞、3A游戏和内容创作提供卓越性能,核心搭载全新的英特尔酷睿Ultra 9 290HX Plus处理器,并可选配最高至NVIDIA GeForce RTX 5080笔记本电脑GPU [1][2] - 即将发布的旗舰型号Strix SCAR 18将支持最高至NVIDIA GeForce RTX 5090笔记本电脑GPU的配置,其整机散热设计功耗(TDP)较2025年款有大幅提升,旨在提供无妥协的顶级性能 [6][7] 核心硬件配置 - 处理器全线升级为英特尔酷睿Ultra 9 290HX Plus,提供出色的多线程性能和下一代AI能力 [1][2] - 图形处理器方面,Strix G16/G18最高可选NVIDIA GeForce RTX 5080笔记本电脑GPU,而Strix SCAR 18将可选配更高阶的RTX 5090笔记本电脑GPU [1][5][7] - 两款Strix G系列机型均支持最高64GB DDR5 6400MT/s内存和2TB PCIe 4.0 NVMe M.2 SSD存储 [8][10] - 系统支持最新的连接技术,包括WiFi 7、2.5G有线网口以及两个支持Thunderbolt 5的Type-C接口 [8][10] 显示屏技术升级 - Strix G16配备16英寸2.5K(2560x1600)ROG Nebula显示屏,刷新率从上一代的240Hz提升至300Hz,响应时间为3ms [3][8] - Strix G18配备18英寸2.5K(2560x1600)ROG Nebula HDR显示屏,首次采用Mini LED技术,拥有超过2000个调光区,峰值亮度高达1600尼特,刷新率为240Hz [3][10] - 两款显示屏均采用防眩光(ACR)技术以保障不同光照条件下的可视性,并支持100% DCI-P3色域、Pantone认证、G-SYNC和Dolby Vision [3][8][10] 散热与设计创新 - 新款笔记本采用最新的ROG智能散热技术,包括三风扇技术、全覆盖真空腔均热板和夹层式散热片设计,以最大化散热效率,维持高帧率稳定运行 [4] - 机身经过重新设计,强调用户友好性,采用无工具拆卸结构,仅需拨动几个弹簧卡扣即可轻松访问SSD和内存等关键内部组件进行升级 [5][9][10] - 设计上保留了标志性的Strix美学,配备全新的全环绕RGB灯带和每键RGB背光键盘,支持Aura Sync同步灯效 [6][9][10] 产品规格与详情 - Strix G16机身尺寸为35.4 x 26.4 x 2.26 ~ 3.04厘米,重量为2.7公斤(5.95磅) [9] - Strix G18机身尺寸为39.9 x 29.4 x 2.31 ~ 3.2厘米,重量为3.5公斤(7.7磅) [11] - 两款机型均配备90Wh电池和最高380W的电源适配器 [9][10] - 音频方面支持Smart Amp技术、Dolby Atmos、高解析音频和双向AI降噪 [9][10]
Supermicro Launches 'Plug-and-Play' AI Systems To Fast-Track Data Center Builds
Benzinga· 2026-03-18 00:37
公司产品与战略 - 公司推出了专注于人工智能的新系统系列,旨在帮助客户更快、更高效地建立和运行大规模人工智能业务 [1] - 公司推出了新的存储系统,以更高效地管理海量人工智能数据,减少结果重新计算的需求并降低功耗 [1] - 公司推出了集计算、存储和网络于一体的全集成人工智能平台,简化了企业部署和扩展人工智能业务的流程 [2] 财务与估值 - 下一份重要的财报催化剂预计在2026年5月5日发布 [5] - 每股收益(EPS)预估为0.59美元,较去年同期的0.31美元有所增长 [7] - 营收预估为124.1亿美元,较去年同期的46.0亿美元大幅增长 [7] - 市盈率(P/E)为23.3倍,表明相对于同行估值合理 [7] 市场表现与技术分析 - 公司股价在发布时下跌0.16%,报31.81美元 [9] - 股价位于20日简单移动平均线(SMA)上方1.3%,但位于100日SMA下方6.8%,表明短期趋稳而中期趋势仍构成阻力 [3] - 过去12个月股价下跌23.60%,目前更接近52周低点而非高点 [3] - 相对强弱指数(RSI)为51.68,处于中性区域,显示动能平衡 [4] - 平滑异同移动平均线(MACD)为-0.0190,低于其信号线0.0538,表明尽管近期反弹,但看跌压力依然存在 [4] - RSI高于50与看跌的MACD结合,表明动能偏向看跌 [4] - 关键技术阻力位在33.50美元,关键技术支撑位在29美元 [7] 分析师观点 - 分析师平均评级为“持有”,平均目标价为42美元 [6] - 近期分析师行动包括:巴克莱银行于2月4日将评级定为“均配”,目标价下调至38美元;Rosenblatt于2月4日给予“买入”评级,目标价下调至50美元;Needham于2月4日给予“买入”评级,目标价下调至40美元 [7] - 综合评估显示,公司股票具有质量和价值倾向,但动能较弱,这意味着其基本面可能具有吸引力,但技术分析师通常希望看到动能改善,特别是能明确突破阻力位,才会认为走势不仅仅是反弹 [6][8] 市场关联 - 公司在多只交易所交易基金(ETF)中占有显著权重,这些基金的任何重大资金流入或流出都可能引发对该股票的自动买入或卖出 [9]
Dell shrinks workforce by 11,000 in fiscal 2026 amid ongoing restructuring
Proactiveinvestors NA· 2026-03-17 23:37
关于发布商Proactive - 发布商是一家提供全球金融新闻与在线广播的机构 其内容由经验丰富的新闻记者团队独立制作 旨在为全球投资受众提供快速、易获取、信息丰富且可操作的商业与金融新闻 [2] - 发布商专注于中小型市值公司市场 同时也覆盖蓝筹股公司、大宗商品及更广泛投资领域的信息 其内容旨在激发和吸引积极的个人投资者 [3] - 发布商的新闻团队覆盖全球主要金融和投资中心 在伦敦、纽约、多伦多、温哥华、悉尼和珀斯设有办事处和演播室 [2] - 发布商提供的新闻和独特见解涵盖多个市场领域 包括但不限于生物技术与制药、采矿与自然资源、电池金属、石油与天然气、加密货币以及新兴的数字和电动汽车技术 [3] 关于内容制作 - 发布商在内容制作中采用前瞻性技术 其人类内容创作者拥有数十年的宝贵专业知识和经验 同时团队也借助技术来协助和增强工作流程 [4] - 发布商偶尔会使用自动化和软件工具 包括生成式人工智能 但所有发布的内容均经过人工编辑和创作 遵循内容生产和搜索引擎优化的最佳实践 [5] 关于作者Emily Jarvie - 作者Emily Jarvie的职业生涯始于澳大利亚霍巴特的政治记者 后迁居多伦多 在加入Proactive之前 她报道新兴迷幻剂领域的商业、法律和科学发展动态 [1] - 作者拥有深厚的新闻背景 其作品曾刊登于澳大利亚、欧洲和北美的报纸、杂志和数字出版物 包括The Examiner, The Advocate, The Canberra Times等 [1]
Nscale und Microsoft kündigen Zusammenarbeit mit NVIDIA und Caterpillar an, um 1,35 GW NVIDIA Vera Rubin NVL72 GPUs auf dem Flagship AI Factory Campus in West Virginia bereitzustellen
Prnewswire· 2026-03-17 07:54
核心合作与战略布局 - Nscale与微软签署意向书,将提供1.35吉瓦的AI算力容量,并在西弗吉尼亚州建立全球旗舰AI园区,部署基于NVIDIA Vera Rubin DSX AI Factory参考设计的新一代NVIDIA Vera Rubin NVL72 GPU系统 [1] - 公司同时宣布收购由Fidelis New Energy和8090 Industries支持的American Intelligence & Power Corporation,该收购包含一个占地超过900公顷、位于西弗吉尼亚州梅森县的Monarch Compute园区,以及美国首个州认证的、可扩展至超过8吉瓦电力容量的AI微电网 [2] - 作为与微软合作的一部分,Nscale将基于最新一代NVIDIA Vera Rubin NVL72 GPU及未来技术,建设并运营先进AI数据中心基础设施,以承载大规模GPU部署,该部署将从2027年底开始分阶段进行,最终成为全球最大的专用AI计算设施之一 [3] 基础设施与产能规划 - 计划中的基础设施将基于一个长期框架运营,包括初始为期多年的计算服务协议和反映设施规模与战略重要性的长期数据中心租赁结构,使该园区成为美国下一代AI训练和推理能力的最重要设施之一 [4] - 该园区扩展潜力巨大,总电力容量可达8吉瓦,使Nscale能够快速提升电力容量,同时支持当今市场上已宣布的最大规模AI计算部署之一 [6] - 园区将提供高速光纤连接,直连美国主要AI枢纽,毗邻包括Ashburn和芝加哥在内的关键AI与云基础设施中心,为客户提供低延迟和最小延迟的AI工作负载处理能力 [7] 技术合作与供应链 - 在战略合作框架下,Nscale将与Caterpillar合作,大规模部署其G3500系列天然气发电机,目标在2028年上半年实现为NVIDIA Vera Rubin DSX AI Factory参考设计供电的2吉瓦发电能力 [9] - 采用Caterpillar G3500系列单元,为Nscale提供了经过验证、可快速部署的电力解决方案,缩短了传统基础设施的建设时间,加速了从选址到实际计算上线的进程 [10] - 此次合作使Nscale成为NVIDIA Vera Rubin架构和NVIDIA DSX AI Factory的全球旗舰部署合作伙伴 [8] 市场背景与行业需求 - 行业预测显示,全球对数据中心的需求将大幅增长,但现有供应受到能源和新产能上线速度的限制 [5] - 据麦肯锡估计,到2030年,与AI相关的数据中心容量需求可能达到156吉瓦 [5] - Monarch Compute园区将在Nscale现有超过1吉瓦的容量基础上进行建设 [5] 运营模式与环境影响 - 园区将独立于当地电网运行,采用现场发电,避免增加现有电力客户的负担并保护消费者电价,且其微电网设计未来可接入电网以实现电力回输 [11] - 公司致力于碳封存以抵消排放,并可使用西弗吉尼亚州大量的碳封存能力,即使在满负荷8吉瓦运行时,园区也将采用高效设计,减少用水且不影响社区供水或家庭用水 [12]
Dell AI Factory with NVIDIA Delivers Proven Path to Enterprise AI ROI
Prnewswire· 2026-03-17 04:35
公司核心进展与市场定位 - 戴尔科技宣布其与英伟达合作的“戴尔AI工厂”推出两周年之际,在AI数据平台、端到端AI基础设施以及AI解决方案与服务组合方面取得多项进展,旨在帮助企业将AI从试点推广至规模化生产[1] - 该解决方案已拥有超过4,000家客户,早期采用者在第一年内实现了高达2.6倍的投资回报率,证明了其端到端方法能带来可衡量的商业成果[1] - 戴尔是顶级的AI基础设施提供商,拥有业内最广泛的产品组合,提供跨越数据、基础设施、解决方案和服务的集成能力[4] 行业趋势与企业需求 - 企业AI领域正在发生根本性转变,随着AI代码助手和智能体工作流大幅降低了构建定制应用程序的成本和时间,首席信息官们越来越多地选择在内部、本地开发AI能力,这推动了对自有基础设施的需求[2] - 然而,不明确的投资回报率仍然是阻碍AI大规模部署的首要障碍,实现可衡量回报需要三个关键要素:使企业信息为AI做好准备的数据平台、能够将最新创新从试点无缝高效扩展至生产的基础设施,以及通过简化部署和加速ROI来压缩价值实现时间的解决方案与服务[3] 数据平台能力 - 戴尔AI数据平台与英伟达合作,提供了一个统一的AI平台,结合了戴尔的高性能存储、模块化数据引擎以及英伟达的加速计算、网络、软件和CUDA-X库,作为“戴尔AI工厂”的数据基础,它处理从检索增强生成、多模态搜索到智能体工作流和大规模数据处理等多种工作负载[5] 基础设施能力:从桌面到数据中心 - 戴尔下一代基础设施支持AI工作流的每个阶段,从快速原型设计到规模化生产部署[6] - 针对桌面AI开发和自主智能体:戴尔Precision工作站提供高达五块英伟达RTX PRO Blackwell桌面版GPU的塔式配置,移动工作站则采用英伟达RTX PRO Blackwell笔记本GPU[7] - 戴尔Pro Max with GB300是首款搭载英伟达GB300 Grace Blackwell Ultra桌面超级芯片的OEM台式机,提供高达20 PFLOPS的FP4性能和748GB一致性内存,用于开发和部署万亿参数规模的自主AI智能体[7] - 针对规模化生产AI:戴尔是首家在配备英伟达AI基础设施的PowerEdge服务器中集成英伟达NVQLink与CUDA-Q的OEM,使企业和研究机构能够探索新兴的量子-经典计算用例[8] - 戴尔推出多款液冷服务器,包括采用英伟达HGX™ Rubin NVL8的PowerEdge XE9880L/XE9882L/XE9885L,以及采用英伟达Vera Rubin NVL72平台的旗舰液冷服务器PowerEdge XE9812,用于大规模实时训练和推理[10] - 戴尔集成机架可扩展系统现在包含戴尔PowerSwitch和英伟达液冷交换,为AI基础设施提供统一的机架级电源和冷却管理[10] 解决方案与服务能力 - 更新的戴尔AI解决方案将新的模块化架构与戴尔自动化平台蓝图和英伟达AI Enterprise软件相结合,在简化运营和减少部署复杂性的同时交付企业成果[9] - 戴尔Agentic AI加速服务提供打包能力,支持企业从实验验证到全企业集成的任何阶段,弥补技能差距并降低技术复杂性[11] - 与Cohere's North、DataRobot和英伟达合作的智能体AI平台,使企业能够安全地部署和管理具有编排、治理和可观测性的AI智能体[11] 产品上市时间 - 戴尔Agentic AI加速服务现已上市[16] - 采用英伟达NVQLink和CUDA-Q集成的戴尔PowerEdge现已上市[16] - 搭载英伟达RTX PRO 4500 Blackwell服务器版GPU的戴尔PowerEdge R770/R7715/R7725现已全球上市[16] - 戴尔Pro Max with GB300已于2026年3月向部分客户发货[16] - 戴尔AI工厂模块化架构将于2026年4月全球上市[16] - 戴尔PowerEdge XE9880L/XE9885L将于2026年第三季度全球上市[16] - 戴尔PowerEdge XE9812将于2026年下半年全球上市[16] - 英伟达Quantum-X800 Q3300-LD液冷交换机将于2026年第四季度通过戴尔科技全球上市[16] - 戴尔PowerEdge M9822和R9822将于2026年9月全球上市[16]
Supermicro Reveals DCBBS® with New NVIDIA Vera Rubin NVL72, HGX Rubin NVL8, and Vera CPU Systems, Designed to Accelerate Customer Time-to-Market
Prnewswire· 2026-03-17 04:35
公司新产品发布 - 公司发布了基于NVIDIA Vera Rubin平台的新系统产品组合,包括NVIDIA Vera Rubin NVL72、NVIDIA HGX Rubin NVL8和NVIDIA Vera CPU系统 [1] - 新产品旨在加速客户的产品上市时间,并采用公司的数据中心构建块解决方案(DCBBS)先进液冷技术栈进行设计和构建 [1] - 公司总裁兼CEO表示,公司DCBBS技术栈旨在赋能即将推出的NVIDIA平台系统,为客户提供一条清晰、快速的路径,以大规模部署下一代AI工厂 [2] 产品技术架构与优势 - 公司的DCBBS模块化方法使数据中心运营商能够部署经过验证的、预先设计的机架解决方案,而非为每个项目定制构建基础设施,从而减少上线时间、降低集成风险并降低任何规模AI工厂部署的总拥有成本 [3] - DCBBS专门设计用于满足不断发展的热、电力和网络需求,以支持NVIDIA新平台的快速稳健部署,并包含全套经过验证的液冷基础设施组件 [4] - Vera Rubin NVL72作为单机架级加速器运行,统一了六个协同设计的芯片,可提供高达3.6 Exaflops的推理性能、75TB快速内存和1.6 PB/s的HBM4带宽 [6] - 与NVIDIA Blackwell解决方案相比,NVIDIA Vera Rubin NVL72和HGX Rubin NVL8系统的目标是实现每瓦特吞吐量提升高达10倍,令牌成本降低至十分之一 [5][6] 具体产品规格 - 公司正在设计其NVIDIA Vera Rubin NVL72,并采用新的DCBBS液冷组件,以完全支持机架和集群级别的功率和热设计范围 [5] - 公司的2U HGX Rubin NVL8系统是最灵活的平台,支持NVIDIA Vera和下一代x86 CPU,每个机架可扩展至72个Rubin GPU,并为没有液冷的数据中心提供DCBBS液气(L2A)侧挂CDU选项 [5] - 2U HGX Rubin NVL8系统基于NVIDIA MGX机架架构构建,采用公司的盲插汇流排和歧管,可实现免工具机架集成,允许客户将八个Rubin GPU与最适合其工作负载和软件堆栈的CPU平台配对 [7] - 该设计支持每个机架放置9个HGX Rubin NVL8系统,总计最多72个Rubin GPU,适用于大规模AI训练、推理和加速HPC [8] - 公司的Vera CPU下一代智能体AI系统采用紧凑的2U机箱,配备双NVIDIA Vera CPU,支持最多6个RTX PRO 4500 Blackwell服务器版GPU,提供高计算密度和能效 [9] 存储与网络创新 - 公司即将推出的上下文内存存储平台(CMX)引入了一类新的AI原生存储,架构为智能Pod级上下文内存存储层,可扩展GPU KV缓存容量,并以Vera Rubin NVL72超级Pod集群所需的吞吐量提供长上下文推理数据 [10] - 该平台由NVIDIA BlueField-4处理器、NVIDIA Vera CPU、NVIDIA ConnectX-9 SuperNIC、Spectrum-X以太网、NVIDIA DOCA和NVIDIA Dynamo提供支持,为大规模AI推理管道和RAG工作负载提供所需的高带宽、低延迟结构和智能数据路径卸载 [10] 产品供应与战略 - 公司当前的基于NVIDIA Blackwell的系统组合正在全面生产,并可通过其美国和全球制造能力立即部署,使客户能够立即构建和扩展生产型AI基础设施 [11] - 公司同时投资于当前的Blackwell产品线和下一代系统,以确保客户在此转型的每个阶段都拥有合适的平台 [11] - 公司将在GTC San Jose 2026上展示其Vera Rubin平台系统的早期预览以及当前生产的Blackwell产品组合 [12]
Dell AI Data Platform with NVIDIA Supercharges Enterprise AI with Breakthrough Data Orchestration and Storage Innovations
Prnewswire· 2026-03-17 04:35
文章核心观点 戴尔科技与英伟达联合推出并升级“戴尔AI数据平台”,旨在通过突破性的数据编排与存储创新,解决企业数据孤岛、处理速度慢等关键瓶颈,从而赋能企业级人工智能从实验走向规模化生产,并已通过客户部署验证了其可观的商业回报[1][2][3][9] 产品发布与核心价值 - 戴尔科技宣布推出搭载英伟达技术的“戴尔AI数据平台”,其核心价值在于帮助企业发现并激活企业数据,同时提供极致的存储性能以驱动AI应用和自主AI智能体[1] - 该平台旨在解决企业AI面临的最大障碍:数据访问过慢、数据孤岛严重以及数据质量混乱,作为“戴尔AI工厂(英伟达)”的核心组件,它在保障安全、治理和顶级性能的同时激活企业数据[3] - 该平台能显著提升数据处理效率,客户可实现比传统计算方式快**12倍**的向量索引、快**3倍**的数据处理速度,以及快**19倍**的“首词元”生成时间[3] 技术架构与功能创新 - **自动化AI数据全生命周期**:由英伟达AI基础设施加速的戴尔数据引擎,可自动化完整的AI数据生命周期,大幅减少数据准备时间,同时保持企业级治理[4][5] - **数据编排引擎**:基于戴尔收购Dataloop的技术,该无代码/低代码引擎能编排AI数据生命周期,自动发现、标记、丰富和转换多模态数据为可治理的、AI就绪的数据集,其市场提供超过**200个**预构建模型、应用和模板,包括英伟达NIM微服务和AI蓝图[6] - **AI助手与数据分析**:戴尔数据分析引擎中的新AI助手为SQL分析带来了对话式自然语言界面,使业务用户无需专业SQL知识即可查询、可视化数据,这 democratizes 了数据访问[6] - **GPU加速与数据平台集成**:在平台内引入英伟达RTX PRO Blackwell服务器版GPU,将加速直接带入数据平台层,加速的CUDA-X库(如cuDF用于结构化数据处理,cuVS用于向量索引)与戴尔数据引擎协同工作,可带来高达**3倍**更快的SQL查询和**12倍**更快的向量索引[6][7] 存储性能突破 - **应对存储瓶颈**:随着AI从实验转向生产,传统存储架构成为关键约束,戴尔的AI优化存储引擎通过专用架构解决此问题,确保大规模下的性能[8] - **戴尔闪电文件系统**:作为全球最快的并行文件系统,它为AI训练和推理环境提供极致性能密度,每机架高达**150 GB/秒**,性能比传统全闪存横向扩展文件系统竞争对手高**20倍**,每机架单元吞吐量比竞争性并行文件系统高**2倍**[11] - **戴尔Exascale存储**:这是唯一为极致规模AI和HPC构建的**3合1**存储,IT团队可在最新戴尔PowerEdge服务器上部署文件、对象和并行文件系统存储软件,每机架读取性能高达**6TB/秒**[11] - **GPU内存优化**:支持英伟达CMX上下文内存存储平台及共享存储上的KV缓存推理加速,允许将KV缓存从GPU内存卸载到戴尔CMX存储,这极大提高了长上下文和智能体AI工作负载的GPU利用率[11] - **PowerScale性能提升**:新测试表明,戴尔PowerScale的软件驱动并行网络文件系统架构,在企业AI环境中处理大文件时,性能比NFSv3快**6倍**[11] 市场验证与客户回报 - “戴尔AI工厂(英伟达)”迎来两周年,已有超过**4,000名**客户部署,早期采用者在第一年内实现了高达**2.6倍**的投资回报率,证明端到端方法能带来可衡量的商业成果[9] - 公司高管观点强调,将AI试点推向生产面临的首要问题是整合现有数据,而该平台通过自动化数据生命周期和提供所需的速度与规模来解决此问题,与英伟达共同定义了企业AI基础设施所需的标准[10] 产品上市时间 - 戴尔对英伟达最新创新的支持将在年内陆续推出,其中戴尔闪电文件系统将于**2026年4月**上市,戴尔Exascale存储计划在**2026年下半年**初上市,AI数据平台中的英伟达GPU加速数据处理和索引功能将于**2026年下半年**推出,数据分析引擎的AI助手将于**2026年上半年**推出[16] - 戴尔数据编排引擎及其市场、对英伟达AI-Q蓝图的支持,以及戴尔与英伟达蓝图现已可用[16]
Supermicro Launches Seven AI Data Platform Solutions with NVIDIA and Leading Ecosystem Partners to Accelerate Enterprise AI Innovation
Prnewswire· 2026-03-17 04:35
产品发布核心信息 - Supermicro于2026年3月16日宣布推出七款完全集成的AI数据平台解决方案,旨在加速企业AI的采用 [1] - 这些解决方案是与NVIDIA及领先的生态系统合作伙伴共同开发,将计算、网络、存储和AI软件统一为交钥匙平台 [2] 技术架构与核心组件 - 平台基于NVIDIA参考架构,并采用Supermicro的高性能GPU和存储系统构建 [1] - 平台核心硬件包括NVIDIA RTX PRO 6000 Blackwell Server Edition GPU和新的NVIDIA RTX PRO 4500 Blackwell Server Edition GPU [1] - 平台集成了NVIDIA Spectrum-X以太网网络,以及包括NVIDIA NIM微服务和NVIDIA NeMo在内的企业AI软件,以支持高级AI智能体 [1] 合作伙伴生态系统 - 解决方案是与Cloudian、DDN、Everpure(前身为Pure Storage)、IBM、Nutanix、VAST Data和WEKA等数据平台创新者合作开发 [2][6] - Cloudian表示,其HyperScale AIDP将基于GPU的计算直接带到企业数据旁,利用Supermicro等合作伙伴的最佳计算、网络和存储节点,提供紧密集成的解决方案 [3] - DDN、Supermicro和NVIDIA联合推出“Driving AI Breakthroughs”移动AI工厂,展示从试点到可扩展、ROI驱动的AI的成熟路径 [4] - IBM指出,其运行在Supermicro Petascale存储服务器上的IBM Storage Scale可提供高吞吐、低延迟的并行数据访问,并自动从非结构化数据中提取语义,实时检测变化,无需昂贵的数据复制即可更新NVIDIA AI数据平台内的数据 [7] - Nutanix表示,其Agentic AI解决方案集成了Nutanix AHV、Nutanix Kubernetes平台、统一存储和AI网关等技术,运行在Supermicro设计和构建的多种专用服务器上 [8] - VAST Data强调,其CNode-X AI数据平台由VAST AI操作系统驱动,基于大规模EBox部署的成功经验,提供企业所需的性能、弹性和操作简便性 [9] - WEKA表示,通过将其NeuralMesh与Supermicro先进的GPU和机架级系统结合,为企业提供了一个不仅能支持当前AI工作负载,且能随工作负载扩展而变得更强大的基础 [10] 产品价值主张与市场定位 - 这些解决方案旨在加速企业从数据到智能行动的规模化转化,帮助企业更快地从试点阶段进入生产阶段 [2][7] - 公司CEO表示,通过结合数据中心构建块解决方案、机架级集成专业知识和先进的冷却创新,Supermicro正使AI部署更快、更高效、更交钥匙化 [2] - 平台旨在满足高级AI工作负载的推理需求,需要统一计算、网络和存储的全栈基础设施 [3] - 公司定位为面向AI、云、存储和5G/边缘的全栈IT解决方案提供商,致力于为全球客户提供从云到边缘的下一代创新 [11] 市场活动 - 这些解决方案将于3月16日至19日在NVIDIA GPU技术大会(GTC)的Supermicro第1113号展位进行展示 [10]
Vertiv Brings Converged Physical Infrastructure to NVIDIA Vera Rubin DSX AI Factories
Prnewswire· 2026-03-17 04:33
公司产品发布与合作 - 公司宣布为NVIDIA Vera Rubin DSX AI工厂参考设计和NVIDIA Omniverse DSX蓝图提供融合物理基础设施设计 [1] - 公司推出名为“Vertiv OneCore Rubin DSX”的融合物理基础设施,可作为DSX SimReady系统级模型使用,旨在加速AI工厂的设计和部署 [2] - 该产品是公司与NVIDIA合作的成果,提供模拟就绪的数字电源和冷却资产、已验证接口以及可重复的基础设施构建模块 [3] 产品设计理念与核心要素 - 公司的融合物理基础设施是一种系统级模型,将电源、冷却、控制和服务集成到相互依赖的设计中,并在整个电源链和热链上进行优化 [4] - 该设计理念基于五个基础要素:可重复的构建模块、定义的接口、系统编排、数字连续性以及生命周期支持 [4] - 其核心是一个围绕标准化12.5MW基础设施模块构建的可扩展构建块架构,这些模块可以组合、配置和扩展,以支持从较小的AI集群到千兆瓦级AI工厂的部署 [5] 市场需求与产品价值主张 - 随着AI工厂在密度、复杂性和功耗需求上的扩展,运营商面临压缩部署时间、提高基础设施利用率和降低集成风险的压力 [3] - 公司的新方法旨在通过降低复杂性、提高建设前的信心以及加速产能上线时间来满足这些需求 [3] - 与主要压缩时间表的传统模块化或预制方法不同,融合物理基础设施旨在同时提供部署速度和复合的系统级收益 [8] 产品具体优势与客户收益 - 通过结合公司的电源和冷却产品组合、已验证接口和数字模型,可以帮助客户加速开发、提高运营信心并解锁更好的每瓦特输出 [6] - 该方法旨在帮助客户:改善跨电源、冷却和控制的协调;加快运营就绪时间;降低部署复杂性和现场集成风险 [7] - 通过标准化接口和创建可重复的构建模块,公司旨在支持更具可扩展性的AI工厂执行,同时实现更高的性能、效率和可靠性 [8] 行业趋势与战略意义 - AI工厂正在迫使数字基础设施的设计、验证和部署方式发生根本性改变 [6] - 行业需要一种融合物理基础设施方法,将电源、冷却和数字孪生模拟统一起来,以降低部署风险 [9] - 公司预计这项工作将为未来在超大规模、托管、企业及新兴AI部署环境中的融合基础设施产品提供参考 [10] 公司能力与定位 - 公司的贡献基于其将业界最全面的关键电源、热管理、集成控制和生命周期服务产品组合整合为统一融合物理基础设施的能力 [7] - 公司致力于通过实时模拟和系统级建模,支持物理部署前经过数字验证的AI工厂基础设施的开发 [6] - 公司总部位于美国俄亥俄州韦斯特维尔,业务遍及130多个国家 [10]