RTX PRO 6000 Blackwell

搜索文档
深挖英伟达Blackwell
半导体行业观察· 2025-06-30 09:52
Nvidia Blackwell架构核心特点 - 采用750平方毫米巨型芯片设计,集成922亿个晶体管,拥有192个流多处理器(SM) [1] - GB202芯片的SM与GPC比例为1:16,相比前代Ada Lovelace的1:12比例可更低成本增加SM数量 [5] - 取消了子通道切换机制,允许在同一队列中混合不同类型工作负载,提高着色器阵列填充效率 [8] - 采用128位固定长度指令和两级指令缓存设计,L1指令缓存容量提升至约128KB [7][10] - 每个SM分区可跟踪12个波段,寄存器文件容量保持64KB/分区不变 [16] 性能参数对比 - RTX PRO 6000 Blackwell配置188个SM,96GB GDDR7显存,理论带宽1.8TB/s,功耗600W [2] - 相比RTX 5090(170个SM)和AMD RX 9070(28个WGP),在核心数量和显存带宽上具有明显优势 [2][21] - FP32执行流水线重组为32位宽设计,可同时处理INT32和FP32操作避免卡顿 [18] - 每个SM分区每周期可执行16次INT32乘法,是AMD RDNA4的两倍 [18] - 光线追踪性能提升,每个SM的光线三角形相交测试速率提高一倍 [23] 内存子系统 - 采用128KB SM级存储块设计,可在L1缓存和共享内存间灵活分配 [25] - L2缓存延迟130ns,带宽8.7TB/s,相比前代Ada Lovelace有所增加 [49][53] - 显存延迟329ns,L2命中延迟约200ns,略逊于AMD RDNA4的254ns [52] - 总计拥有24MB L1/共享内存容量,是AMD RX 9070(6MB)的四倍 [35] - 地址生成效率优于AMD,单条指令即可完成数组索引转换 [37] 行业竞争格局 - 在高端消费市场缺乏直接竞争对手,AMD RDNA4和Intel Battlemage定位中端 [61] - RTX PRO 6000的FP32吞吐量接近AMD MI300X数据中心GPU [62] - 采用"大核心+高带宽"双重策略,同时增加SM数量和显存带宽 [62] - 芯片面积和功耗达到消费级GPU极限(750mm²/600W) [62] - 尽管面临L2性能等挑战,但凭借规模优势保持市场领先地位 [63][64]
慧与科技(HPE.US)紧抱英伟达(NVDA.US)大腿 在Discover大会重磅发布AI服务器新品
智通财经网· 2025-06-25 10:03
产品发布 - 公司发布新一代ProLiant Compute Gen12服务器,搭载NVIDIA RTX PRO 6000 Blackwell GPU [1] - 推出全新HPE Compute XD690高性能AI服务器,配备8个NVIDIA Blackwell Ultra GPU模块 [1] - 发布HPE Alletra Storage MP X10000高性能AI存储系统 [2] - 推出HPE OpsRamp Software人工智能算力平台,与NVIDIA Enterprise AI Factory服务配合使用 [2] 合作伙伴关系 - 公司与英伟达深化长期AI算力合作伙伴关系,共同打造"全栈AI工厂基础设施" [1][4] - 通过26家全新Unleash AI合作伙伴,加速实现AI价值创造 [2] - 与Veeam达成协议,帮助数据迁移和强化可移植性 [3] - 与CommVault扩大合作,抵御网络威胁并防止数据丢失 [3] 战略方向 - 公司从传统服务器商转型为"混合云计算订阅平台 + AI基础设施"提供者 [5] - 借助GreenLake混合云订阅模式与Cray超算技术,主攻"全栈AI工厂"解决方案 [4] - 公司CEO强调生成式AI、AI智能体及物理AI的潜力,认为构建正确的IT基石至关重要 [2] 市场表现 - 公司HPC & AI业务2023财年营收同比增长25% [5] - AI-高性能优化服务器在2024财年第四季创下单季9亿美元销售额纪录 [6] - 华尔街预计到2026财年该业务板块规模可望逼近60亿美元 [6] 行业竞争 - 公司与超微电脑、戴尔科技在AI服务器领域构成直接竞争关系 [4] - 三大AI服务器领军者均深度强化与英伟达合作,争夺优先获得新品AI GPU供给 [4]
亚洲科技:2025 Computex关键要点
2025-05-28 23:16
纪要涉及的行业和公司 - **行业**:科技、电信、数据中心、人工智能、半导体、服务器、汽车等行业 - **公司**:NVDA(英伟达)、Hon Hai(鸿海)、ASPEED、AVC(3017.TW)、Vertiv、Delta、Lite - On Tech、MediaTek(联发科)、TSMC(台积电)、ASE Technology Holding Co Ltd(3711.TW)、ASMPT Ltd(0522.HK)、Alchip Technologies(3661.TW)等众多公司 [19] 纪要提到的核心观点和论据 数据中心AI需求与供应情况 - **需求趋势强劲且具长期增长可见性**:NVDA对数据中心AI需求的可持续性充满信心,AI工厂建设才刚刚开始,主权AI、CSP和独立AI实验室都在投入资本建设AI工厂,预计将持续多年;NVDA CEO预计未来3 - 5年物理AI/机器人将达到拐点,推动GPU计算需求上升;特朗普政府关于AI扩散规则的新方向将使未来几个季度需求估计上升 [5] - **供应瓶颈短期存在但下半年机架生产将强劲增长**:GB200 NVL72机架生产的当前瓶颈短期内仍将存在,产品验收测试率、背板组装良率等仍处于较低水平;多数公司有信心在2025年第二季度实现机架交付的显著增长,并在下半年持续回升;预计2025年NVL72机架出货量为2.5万台,部分ODM认为年底出货量可达1.2 - 1.5万台,对2026年有利;小ODM在长组装过程中承担GB200组件库存面临资产负债表压力,大ODM如鸿海有机会利用更强的资产负债表地位获得市场份额 [5] 产品需求与市场情况 - **GB300系统需求意外强劲,HGX仍属小众**:部分ODM表示GB300 NVL72系统客户需求强劲,可能因其更高的HBM数量适合重度推理应用;与普遍观点相比更乐观,许多人认为GB300是GB200和2027年下半年Rubin之间的过渡产品;2025年上半年基于HGX的Blackwell出货量有小幅增长,但规模较小,尽管GB200供应链有挑战,HGX仍属小众解决方案 [5] 技术与产品设计相关情况 - **DPU与BMC应用变化**:GB200 Bianca计算托盘有两个BF3 DPU,GB300 Cordelia托盘有一个BF3 DPU,尽管GB300 GPU板设计回到Bianca板设计,但供应链反馈默认设计仍为每个GB300计算托盘一个DPU,MGX版本可选择增加DPU;非计算服务器领域BMC采用率上升 [7] - **液冷竞争与设计变化**:Computex上投资者感受到液冷竞争激烈,液冷是新技术,不同层次有不同供应商和竞争格局;多数美国CSP仍会委托竞争较小的供应商;AVC是2025年GB200/300和2026年下半年Vera Rubin最大的冷板模块供应商,美国大型CSP市场份额短期内不会改变;Nvidia在GB300中换回Bianca板设计以平滑生产,对液冷组件供应商不利,因TAM降低;尽管GB300的TDP比GB200高约15%,热管理供应商认为现有QD设计可满足额外热量产生 [7] - **ODM内部液冷组件采用推迟**:几家服务器ODM展示了内部液冷组件,旨在未来AI服务器产品中提高内部组件采用率以改善利润率和缩短产品设计周期;GB300产品管道延迟可能会推迟内部组件采用,因CSP优先考虑产品时间表并坚持GB200原始设计,但长期可能成为服务器ODM的利润率驱动因素 [7] - **数据中心电源HVDC是变革者**:下一代Vera Rubin服务器机架功耗为200kW,NVL576 Kyber结构为600kW,机架功耗超200kW + 会出现空间限制、铜母线过载和转换效率低等问题;Nvidia提议将Vera Rubin Ultra/Kyber服务器电压从230V提高到800V以提高电源效率和降低发热;800V HVDC电源机架采用可消除IT机架中的AC/DC转换,为高密度PSU腾出更多空间;但HVDC结构需要重构数据中心基础设施,Nvidia和CSP在结构上存在分歧,减缓了采用速度;HVDC采用有望扩大电源TAM,使基础设施供应商、电源机架供应商和电源芯片模块制造商受益 [7] 其他产品相关情况 - **独立电源机架与BBU、超级电容应用**:预计Vera Rubin服务器将初步采用独立电源机架,CSP倾向于在计算IT机架旁设置独立电源机架以提高电源效率;电源机架空间充足将推动BBU和超级电容采用,相比传统PSU内容增加1 - 3倍,对Delta和Lite - On Tech等传统PSU供应商有利;多数CSP迁移到带BBU设计的电源机架时会跳过UPS结构,对传统UPS供应商不利 [9] - **RTX Pro 6000 Blackwell服务器**:Nvidia在Computex展示了RTX Pro 6000 Blackwell服务器,可丰富企业AI服务器产品;虽有反馈认为该产品可能替代H20服务器,但因RTX Pro 6000采用GDDR7而非CoWoS HBM可缓解担忧,但其计算性能是H20的3 - 4倍(FP32下117 TFLOPs vs. 44TFLOPs),可能限制其替代H20的机会 [9] - **数据中心ASICs与NVLink Fusion**:Nvidia在Computex主题演讲中推出NVLink Fusion,将开放其专有芯片 - 芯片互连结构NVLink与第三方芯片集成,这是NVDA参与定制ASIC市场并确保其技术成为互连结构的举措;需观察未来2 - 3个季度CSP客户的采用情况,因存在对与NVDA进一步绑定的担忧;初步反馈显示部分CSP和二级ASIC客户有兴趣,对其宣布的合作伙伴如MediaTek、Marvell等可能有利 [9] - **CPO技术与过渡方案**:Nvidia计划在2026 - 2027年在Rubin Ultra/NVL576 Kyber中引入CPO,但热域分离困难且影响信号传输;多家供应商推广NPO和CPC作为过渡解决方案;CPO组装良率挑战、生态系统准备情况和高芯片温度导致的信号干扰可能会减缓其采用 [9] - **AI PC发展情况**:几家PC品牌通过推出内部AI解决方案来区分其AI PC产品,但缺乏创新AI应用作为关键差异化因素,AI PC渗透率低于预期;加上宏观不确定性,对今年AI PC前景更谨慎;中长期来看,AI推理成本降低和计算性能提升将丰富本地运行的AI应用,加速企业和消费领域AI PC采用 [9] - **Mediatek发展情况**:Mediatek正在研发大型网络芯片,已量产一年多,展示了强大的AI ASIC技术路线图,未来将朝着A16计算芯片、448 SerDes、3D封装、共封装光学和定制HBM发展;其汽车芯片性能可能优于QCOM,采用NVDA GPU和TSMC 3nm工艺节点;预计2026年下半年推出首个数据中心ASIC(TPU v7e),有机会赢得2027 - 2028年后续项目(TPU v8e with 2nm);预计2027年全球OEM将为其带来更有意义的汽车业务收入贡献 [9][11] 其他重要但是可能被忽略的内容 - **分析师认证与重要披露**:研究分析师认证其观点准确反映个人观点,且薪酬与特定推荐或观点无直接间接关联;报告涉及公司特定披露可通过特定网址、电话或邮件获取 [15][17] - **评级系统与覆盖范围**:J.P. Morgan使用超重、中性、减持评级系统,不同地区评级比较基准不同;报告列出分析师覆盖的公司 [18][19] - **研究报告相关信息**:可在特定网站获取J.P. Morgan过去12个月投资建议历史;研究分析师薪酬基于多种因素;非美国分析师可能未按FINRA规则注册,不受相关规则限制 [25][26][27] - **其他披露信息**:J.P. Morgan是投资银行业务营销名称;UK MIFID FICC研究有解捆豁免;研究材料同时在客户网站提供;报告中对中国相关地区有特定表述;J.P. Morgan研究可能涉及受制裁证券,客户需注意法律合规义务;数字或加密资产受快速变化监管环境影响;JPMS在ETF业务中有多种角色和收益;期权和期货相关研究信息获取方式;利率基准可能受监管改革影响;私人银行客户研究由J.P. Morgan Private Bank提供 [28][29][30][31][32][33][34] - **法律实体与地区特定披露**:报告列出不同国家和地区J.P. Morgan相关实体的监管情况、材料分发对象和相关合规要求 [37][38][39][40][41][42][43][44][46][47][48][49][50][51][52][53][54][55][56][59] - **通用信息与免责声明**:报告信息来源可靠,但J.P. Morgan不保证其完整性和准确性;意见、预测和投影可能变化,投资有风险;报告不构成投资建议,客户需独立决策;J.P. Morgan可能进行与报告观点不一致的交易;报告有保密和安全要求,使用MSCI和Sustainalytics信息有相关规定 [60]
Computex 2025 Day 1:NVIDIA、Qualcomm、Arm制定AI与计算议题
Counterpoint Research· 2025-05-22 17:41
全球计算领域势力格局转变 - 全球计算领域势力格局开始转变 NVIDIA Qualcomm Arm等公司突破产品思维局限 投向更长远的战略布局 [1] NVIDIA战略布局 - NVIDIA开放NVLink Fusion平台知识产权 允许超大规模云服务商整合半定制芯片到合作伙伴生态系统 [2] - 在台湾建成规模更大的"NVIDIA Constellation"园区 定位为第二总部 靠近核心合作伙伴TSMC Foxconn等 深化HPC PC供应链合作 特别在汽车领域强化与Foxconn合作 [4] - 与TSMC Foxconn及台湾当局合作建设当地最大量子超级计算机项目 在日本与AIST合作打造全球最大量子计算研究超算系统ABCI-Q [4] - 推出RTX Pro 6000 Blackwell服务器版GPU 最高可集成8块GPU 搭配BlueField-3 DPU CX-8 Super NICs及AI企业级软件平台 构建"AI工厂"系统 [5] - 与Dell Lenovo HPE Asus Foxconn Gigabyte等硬件合作伙伴 以及Ansys Cadence CrowdStrike Red Hat等软件供应商构建端到端解决方案 已获Foxconn Lockheed Martin Aramco HUMAIN Telenor等企业部署 [5] Qualcomm战略布局 - 骁龙X系列处理器已驱动85款PC设备 预计2026年推出超过100种设计 以高效能与长效电池续航为差异化优势 [9] - 强化"端云协同"双规AI战略 重点展示Agentic AI落地应用 涵盖生产力与创意场景 未来可能发展为主动预测与自动化任务的新一代使用者界面 [9] - 通过推出与NVIDIA芯片连接的AI核心定制处理器重返数据中心CPU市场 研华 安提国际 宜鼎国际 鼎新电脑等伙伴推动AI与工业应用创新落地 [9] - 计划9月发布骁龙X2平台 包含18个第三代Oryon V3核心 支持48GB LPDDR5X内存 集成1TB NVMe SSD 目标2027年取得Copilot PC市占率12% [10] Arm战略布局 - 推出新一代CPU Travis 包含可伸缩矩阵扩展技术 实现两位数IPC性能提升 在CPU级别提供AI加速 [13] - 展示新一代GPU Drage 具备先进图形处理能力 满足沉浸式游戏需求 [13] - 在数据中心部门 与AWS Google Microsoft等超大规模云服务商深度合作 新增服务器芯片解决方案中50%基于Arm架构 [13] - 在边缘及消费设备领域 推动AI PC和平板电脑发展 预计2025年超过40%的PC和平板电脑采用Arm架构 基于Arm架构笔记本电脑出货量将大幅增长 [14]
花旗:英伟达-Computex首日要点总结
花旗· 2025-05-20 19:40
报告行业投资评级 - 投资评级为买入,目标价150美元,16日收盘价135.40美元,预期股价涨幅10.8%,预期股息收益率0.0%,预期总回报率10.8%,市值33020.75亿美元 [4] 报告的核心观点 - 英伟达CEO重申通过GPU数据中心加速生成式AI应用的目标,多项发布体现其拓展潜在市场的努力,GB300三季度发货符合预期 [3] - 英伟达推出NVLink Fusion芯片,试图进入新兴ASIC AI基础设施生态系统,与关键伙伴合作,虽目前合作名单中缺少AVGO,但此举措被看好 [3] 根据相关目录分别进行总结 重要发布 - NVLink Fusion发布,允许行业构建半定制AI基础设施,连接英伟达庞大AI基础设施生态系统,是其进入新兴ASIC AI基础设施生态系统的尝试 [3] - 新的英伟达Isaac GR00T人形机器人开放模型即将推出,是用于人形推理和技能的可定制基础模型,推动物理AI发展 [8] - RTX PRO 6000 Blackwell GPU服务器面向企业,利用英伟达RTX图形和AI能力加速企业AI工作负载 [9] 其他发布 - 全球计算机制造商与英伟达合作推出AI优先的DGX个人计算系统 [13] - 英伟达为全球最大量子研究超级计算机提供支持 [13] - 富士康、英伟达和台湾政府合作建设台湾AI云服务 [13] - 英伟达宣布DGX Cloud Lepton连接开发者与全球计算生态系统 [13] - 英伟达Grace CPU C1在边缘、电信和存储领域获得广泛支持 [13] 估值 - 英伟达目标价150美元基于2026年预期每股收益约30倍市盈率,该倍数与3 - 5年平均水平大致相符 [14]
Supermicro Now Accepting Orders on Portfolio of More Than 20 Systems Optimized for the New NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs, Accelerating the Deployment of Enterprise AI Factories
Prnewswire· 2025-05-19 14:00
产品发布 - Supermicro宣布推出搭载NVIDIA RTX PRO 6000 Blackwell Server Edition GPU的企业级AI系统 现可接受订单 该系统组合包含超过20款优化服务器 显著提升企业AI工厂工作负载性能 涵盖AI推理 开发 模型微调 生成式AI 图形渲染 视频流及游戏开发等领域 [1] - 新系统将作为NVIDIA企业AI工厂验证设计的构建模块 整合NVIDIA Spectrum-X网络技术 认证存储及AI企业软件 形成全栈解决方案 加速本地化AI部署 [2] 技术合作 - Supermicro数据中心模块化解决方案®与NVIDIA基于Blackwell架构的企业AI工厂验证设计形成理想协作平台 共同帮助企业快速构建AI工厂 加速AI推理 开发 模拟及图形工作负载的商业化进程 [3] - 公司推出首款基于MGX参考设计的单插槽架构系统SYS-212GB-NR 最多集成4块最新GPU 在边缘计算场景实现高性能且经济高效的AI推理能力 特别适合存在电力 散热和成本限制的分布式部署环境 [6][7] 产品矩阵 - 目前提供超过100款支持NVIDIA PCIe GPU的加速计算服务器 包括RTX PRO 6000 Blackwell H200 NVL H100 NVL L40S和L4等多型号GPU 可灵活适配不同工作负载和部署环境需求 [4] - 产品线包含5U PCIe加速系统(单机箱支持最多10块GPU) MGX系统(单/双插槽配置支持4-8块GPU) 3U边缘优化系统(支持8-19块GPU) SuperBlade®高密度系统(单机架支持120块GPU)及机架式工作站等多种架构 [9][10][11][12] 行业影响 - NVIDIA企业平台副总裁指出 Supermicro多样化的Blackwell系统组合为企业提供可适应基础设施 有效支持跨业务职能的AI工作负载创新 [6] - 通过部署RTX PRO 6000 Blackwell GPU 企业可减少支持高级AI边缘推理所需的服务器数量 降低商业智能分析 工业自动化和零售应用的边缘AI部署成本 [8] 公司背景 - Supermicro是全球应用优化IT解决方案领导者 总部位于加州圣何塞 专注于企业 云 AI及5G电信/边缘IT基础设施的创新 拥有从服务器 AI 存储到网络系统的全栈制造能力 产品在美国 台湾地区和荷兰自主设计生产 [13]
MiTAC Computing Launches the Latest Scale-out AI Server G4527G6 by NVIDIA MGX at COMPUTEX 2025
Prnewswire· 2025-05-19 14:00
产品发布 - 公司在COMPUTEX 2025展会上展示最新AI服务器平台MiTAC G4527G6,该平台专为NVIDIA MGX架构优化,支持NVIDIA RTX PRO 6000 Blackwell Server Edition GPU和NVIDIA H200 NVL平台 [1] - MiTAC G4527G6基于Intel® Xeon® 6处理器,支持8块NVIDIA GPU、8TB DDR5-6400内存、16个热插拔E1.s驱动器以及NVIDIA BlueField-3 DPU [2] - 服务器集成4个NVIDIA ConnectX-8 SuperNIC,提供高达800Gb/s的InfiniBand和以太网连接性能 [2] 技术性能 - NVIDIA ConnectX-8 SuperNIC具备先进拥塞控制和NVIDIA SHARP网络计算功能,优化AI训练和推理吞吐量 [3] - MiTAC G4527G6采用NVIDIA RTX PRO 6000 Blackwell GPU,相比前代产品LLM推理速度提升1.8倍,HPC性能提高1.3倍 [5] - 服务器支持超过100种定制配置,适用于企业AI工厂的模块化部署需求 [4] 行业应用 - 产品针对生成式AI和高性能计算负载设计,适用于AI工厂和云数据中心环境 [2][4] - 平台支持企业级AI应用场景,包括自主决策、物理AI工作流和实时数据分析 [5] - 公司提供从研发到全球支持的全链条服务,整合Intel DSG和TYAN服务器技术以增强AI及液冷方案 [7] 公司背景 - 公司为神达控股子公司,专注AI、HPC及边缘计算领域,提供能效优化的服务器解决方案 [6] - 公司在系统级和机架级集成方面具有行业领先的质量控制能力 [6] - 全球业务覆盖超大规模数据中心市场,强调创新性与可靠性 [7]
NVIDIA RTX PRO Servers Speed Trillion-Dollar Enterprise IT Industry Transition to AI Factories
Globenewswire· 2025-05-19 12:07
Global IT Providers Offer Products, Software and Services to Accelerate Full-Stack AI Platform Shift With NVIDIA Blackwell NVIDIA RTX PRO Server NVIDIA RTX PRO Servers deliver universal acceleration for AI, design, engineering and business applications, ideal for building IT infrastructure with the new NVIDIA Enterprise AI Factory validated design. TAIPEI, Taiwan, May 19, 2025 (GLOBE NEWSWIRE) -- COMPUTEX -- NVIDIA today announced it is speeding the trillion-dollar IT infrastructure transition to enterpr ...
SMCIFY25Q3观察:AI交易热度持续,SMCI能否抢占先机?
华泰证券· 2025-05-09 12:30
报告行业投资评级 - 科技行业投资评级为增持(维持) [5] 报告的核心观点 - AI驱动的数据中心建设仍具备增长逻辑,看好AI基建增长逻辑,但SMCI财报表现与产业趋势背离,其出货政策改变、财务合规等问题或影响客户选择,不过公司正全球灵活扩产应对需求变化,还发布了新一代产品 [1][2][3] 根据相关目录分别进行总结 AI基建市场情况 - 1Q25美股科技巨头持续加码AI基建投入,谷歌、Meta、微软、亚马逊Capex分别同比增长43%、104%、53%、74%至172、137、167、243亿美元;Meta上调全年Capex指引至640 - 720亿美元,谷歌、微软、亚马逊维持FY25 750、800、1000亿美元高位指引 [1] - IDC预计未来五年AI服务器市场规模CAGR可达16.3%,液冷巨头Vertiv认为数据中心市场规模同期CAGR为15 - 17% [1] SMCI FY25Q3财报情况 - 5/6美股盘后公布FY25Q3业绩,受营收盈利低于彭博一致预期、FY25Q4指引低于一致预期、毛利率下滑与关税等影响,盘后跌4%,但基本符合上周盈利预警 [1] - FY25Q3营收45.9亿美元,同比+19%,环比-19%;Non - GAAP EPS 0.31美元,同比-53%,环比-47%,因个别客户在Blackwell与Hopper架构间选择 [1] - FY25Q3毛利率9.6%,同比-6pct,环比-2pct,对后续毛利率指引保守 [1] - 给出FY25Q4指引:营收56 - 64亿美元(一致预期67亿美元),Non - GAAP EPS 0.4 - 0.5美元(一致预期0.66美元) [1] - 暂缓重申FY2026 400亿美元营收目标,下调原FY2025营收预测从235 - 250亿美元至218 - 226亿美元 [1] SMCI与产业趋势背离及产能布局 - CY25Q1 TSMC营收同比+42%,预计Q2同比+38%;Vertiv营收盈利双超预期;科技巨头Capex维持高位,但SMCI表现与数据中心强劲趋势背离,或因出货政策改变和财务合规问题削弱管理层公信力,客户转向更具确定性供应商 [2] - 为应对关税变化和满足本地化需求,持续扩大产能,在硅谷建设第三园区,拓展墨西哥、中国台湾和马来西亚产线,月产5000个机架,GB NVL72级高性能机架约2000个 [2] SMCI新产品情况 - 3月推出HGX B300 NVL16与GB300 NVL72系统,兼容风冷与液冷,GB300 NVL72系统配备超20TB HBM3e,HGX B300 NVL16系统采用8U设计,支持16张GPU,配备2.3TB HBM3e与8张ConnectX - 8网卡,两者NVLink传输速率达1.8TB/s,支持800Gb/s高速互联 [3] - 深度优化热设计与拓扑结构,液冷方案支持8/16节点40/35度温水运行,整体能耗最高可降约40% [3] - 推出集成第二代液冷技术(DLC2)的数据中心构建模块系统(DCBBS),高度集成服务器、存储、网络、电力等模块,现场部署缩短建设周期,TCO最多可降30% [3] - 扩展企业级AI产品组合,新增支持英伟达RTX PRO 6000 Blackwell服务器,相较前代L40S,GPU配备GDDR7与双倍内存容量,支持PCIe 5.0接口,性能全面提升,新产品引入MIG功能,单卡最多支持4个完全隔离计算实例,增强资源利用效率 [3]
Dell Technologies vs HPE: Which AI Server Stock Has Greater Upside?
ZACKS· 2025-04-09 04:00
行业概述 - AI基础设施市场预计到2028年将超过2000亿美元支出,AI服务器投资是关键催化剂 [2] - 戴尔科技和惠普企业是服务器和企业解决方案市场的知名提供商,专注于AI驱动的基础设施和云计算 [1] 戴尔科技(DELL) - 受益于AI服务器强劲需求,PowerEdge XE9680L AI优化服务器需求旺盛 [3] - PowerEdge支持NVIDIA Blackwell Ultra平台,包括HGX B300 NVL16、GB300 NVL72等,XE8712服务器支持每机架144个NVIDIA B200 GPU [4] - 2025财年第四季度AI服务器订单增加17亿美元,当季出货21亿美元AI服务器,积压订单达41亿美元 [5] - 合作伙伴包括NVIDIA、微软、Meta Platforms和Imbue,与NVIDIA扩大AI工厂合作 [6] 惠普企业(HPE) - 2025财年第一季度服务器业务同比增长30%,达43亿美元 [7] - ProLiant Gen 12服务器平台提升性能,量子抗性安全和直接液冷技术,能效提升可替代26台Gen9或14台Gen10服务器,功耗降低至少65% [8] - GreenLake边缘到云平台年化经常性收入(ARR)超20亿美元,同比增长46%,超41000家企业使用 [9] 股价表现与估值 - 年内戴尔科技和惠普企业股价分别下跌349%和376% [10] - 戴尔科技12个月前瞻市销率05倍,低于惠普企业的052倍 [13] 盈利预测 - 戴尔科技2026财年每股收益共识预估为934美元,过去30天未变,同比增长1474% [15] - 惠普企业2025财年每股收益共识预估为194美元,过去30天下降76%,同比下滑251% [15] 结论 - 戴尔科技凭借强大产品组合和合作伙伴基础更具长期吸引力 [17] - 惠普企业面临关税导致的成本上升和收购Juniper Networks的监管障碍 [17]