NVIDIA GB200 NVL72
搜索文档
CoreWeave secures multi-year AI inference deal with Perplexity
Yahoo Finance· 2026-03-04 23:33
核心交易与合作 - CoreWeave与AI服务提供商Perplexity签署了一项多年期协议,成为其AI套件的主要基础设施提供商,负责托管Perplexity的推理工作负载[1] - 根据协议,CoreWeave将在其组织内部署Perplexity Enterprise Max,使员工能够使用Perplexity的高级AI模型进行研究与数据分析[2] - 此次合作进一步巩固了英伟达不断增长的新云(neocloud)业务[2] 技术基础设施与部署 - Perplexity将使用基于NVIDIA GB200 NVL72驱动的集群来为其推理工作负载提供算力,重点支持其Sonar和Search API生态系统的增长[1] - CoreWeave在德克萨斯州丹顿市与Core Scientific签约使用的260兆瓦站点,因夏季恶劣天气导致建设延迟,该站点计划用于其GPU部署之一[4] 资本运作与投资 - 英伟达于1月26日向CoreWeave投资了20亿美元,以加速其数据中心扩张,该股权投资用于为新AI数据中心购置土地、电力和基础设施[3] - CoreWeave曾于2025年10月30日试图以90亿美元的全股票交易收购Core Scientific,但交易因Core Scientific股东拒绝而失败[5] 财务表现与运营指引 - 面对为大规模AI工作负载上线容量的持续运营压力,CoreWeave于2025年12月16日将其2025年资本支出指引下调至120亿至140亿美元[4] - 在此次合作消息公布后,CoreWeave(NASDAQ: CRWV)股价在早盘交易中上涨7.8%,至79.50美元[5]
CoreWeave Lands Perplexity in New AI Cloud Deal, Stock Jumps 5.7% Pre-Market
Yahoo Finance· 2026-03-04 21:59
核心观点 - 人工智能基础设施提供商CoreWeave与AI搜索公司Perplexity达成多年合作伙伴关系 该合作涉及Perplexity在CoreWeave平台上运行下一代AI推理工作负载 并采用专用的NVIDIA GB200 NVL72集群 消息公布后 CoreWeave股价在盘前交易中上涨约5.7% [1][2][5] 合作详情与战略意义 - 合作内容包括Perplexity在CoreWeave平台上运行下一代AI推理工作负载 使用专用的NVIDIA GB200 NVL72驱动集群 以支持其快速增长的产品及API生态系统 [2] - CoreWeave将在其组织内部署Perplexity Enterprise Max 供员工进行网络与内部知识搜索 多步骤研究 数据分析并在统一平台中使用高级AI模型 [2] - 该合作突显了Perplexity的多云战略 同时巩固了CoreWeave作为服务于生产级系统AI公司的专业基础设施提供商地位 [3] - 此次合作将Perplexity这一快速增长的原生AI客户纳入CoreWeave平台 有助于公司扩大其客户基础 超越最大的核心客户 [5] 公司高层评论与行业需求 - CoreWeave收入高级副总裁表示 合作反映了为实际AI部署专门设计的基础设施需求日益增长 生产中的AI应用不仅需要原始基础设施 更需要一流的性能 可靠性以及为AI端到端设计的云平台以简化计算操作 [4] - Perplexity首席商务官表示 CoreWeave的技术能力和以合作伙伴为中心的方法使其成为公司扩展AI产品基础设施支持过程中的“重要合作伙伴” [4] 公司财务与业务背景 - 尽管营收增长强劲 但CoreWeave股价在最新财报发布后近期大幅下跌 财报中包含弱于预期的业绩展望以及不断扩大的亏损 [5] - 公司报告已签约但未确认的营收积压高达668亿美元 突显了市场对AI基础设施的长期需求 尽管投资者持续关注其执行风险和客户集中度问题 [5] - 公司的主要客户关系包括来自OpenAI和Meta的重大承诺 这些合同共同构成了价值数百亿美元的基础设施需求 [5] - 新协议表明 CoreWeave的专业AI云基础设施正在获得那些构建大规模生产系统的新兴AI平台的青睐 [5]
Bitdeer Technologies (BTDR) Climbs 37.6% on AI Computing Expansion
Yahoo Finance· 2026-01-20 10:06
公司近期表现与催化剂 - 公司股价上周环比飙升37.6%,成为表现最佳的公司之一 [1] - 股价上涨的直接催化剂是其在马来西亚部署了NVIDIA GB200 NVL72基础设施 [1] 公司核心战略与定位 - 公司的使命是简化和扩展全球人工智能计算 [1] - 其更广泛的战略是扩大全球人工智能基础设施版图,利用其强大的电力容量和土地资源,为人工智能驱动时代构建下一代系统 [2] - 公司致力于构建一个全球性的智能云,为从模型训练到智能应用部署的整个人工智能生命周期提供支持 [4] 全球数据中心扩张计划 - 公司正在华盛顿州建设一个13兆瓦的加速计算数据中心 [3] - 公司正在田纳西州建设一个37兆瓦的加速计算数据中心 [3] - 公司正在加拿大克拉灵顿建设一个570兆瓦的加速计算数据中心 [3] - 公司正在挪威泰达尔建设一个175兆瓦的设施 [3] - 位于华盛顿州和田纳西州的设施原用于加密货币挖矿,目前正在进行全面改造,转型为针对GPU优化的数据中心 [3] 技术部署与能力 - 部署的NVIDIA GB200 NVL72基础设施将支持最苛刻的人工智能工作负载 [2] - 公司通过扩展数据中心容量、土地储备和GPU基础设施,为支持整个人工智能生命周期创造坚实基础 [4]
一年后,DeepSeek-R1的每token成本降到了原来的1/32
机器之心· 2026-01-09 14:16
DeepSeek-R1模型论文更新与技术细节 - 模型论文从22页大幅扩充至86页,首次公开了完整的四阶段训练全路径,包括冷启动、训练导向RL、拒绝采样与再微调以及全场景对齐RL [1] - 论文已发表于《自然》期刊(Nature volume 645, pages 633-638 (2025))[3] DeepSeek-R1模型架构与行业影响 - DeepSeek-R1于2025年1月20日发布,是一个拥有6710亿参数的开源推理大模型,采用MoE架构,单Token激活参数为370亿 [4] - 该模型的高效率架构、训练方法、工程优化和蒸馏方法在发布后已成为全行业的趋势 [5] 英伟达Blackwell平台对DeepSeek-R1的优化成果 - 通过软硬件深度协同,自2025年1月以来,英伟达已将DeepSeek-R1的吞吐量提升了约36倍,使单Token的推理成本降低到了约1/32 [6][18] - 在过去三个月中(去年10月到今年1月),通过TensorRT-LLM软件优化,每个Blackwell GPU在8k/1k序列长度下的Token吞吐量提升高达2.8倍 [17] 英伟达GB200 NVL72系统架构与性能 - NVIDIA GB200 NVL72是一个多节点液冷机架级系统,通过第五代NVLink连接72个Blackwell GPU,提供高达1800 GB/s的双向带宽 [11] - 该架构专为稀疏MoE模型优化,支持NVFP4数据格式硬件加速,并采用解耦服务技术(Prefill与Decode操作分离)以提升效率 [12] - 在运行DeepSeek-R1时,GB200 NVL72在8K/1K及1K/1K输入/输出序列长度下均展现出行业领先的Token吞吐量与单GPU吞吐能力 [13][14][17] 英伟达HGX B200平台性能加速技术 - NVIDIA HGX B200平台由八个Blackwell GPU通过NVLink互连,在风冷环境下提供强大的DeepSeek-R1推理性能 [21] - 多Token预测技术能显著提高各种交互级别下的吞吐量,在测试的多种输入/输出序列组合中均观察到性能提升 [21][24] - 采用NVFP4数据格式能充分利用Blackwell GPU计算能力提升性能并保持精度,在相同平台上可实现更高的吞吐量与交互级别 [24][27][29] 行业背景与英伟达技术战略 - 随着AI模型处理任务日益复杂,用户与AI交互频率增加,生成的Token数量呈指数级增长,推动行业追求极高的每瓦特Token吞吐量以降低每百万Token成本 [8] - 英伟达通过在GPU、CPU、网络、软件、供电及散热方案上的深度协同设计,持续提升每瓦特Token吞吐量,并优化软件栈以挖掘现有平台更强的性能潜力 [8][30]
SuperX Unveils Modular AI Factory Solution to Reshape AI Infrastructure with an Estimated Deployment Cycle of Under 6 Months
Prnewswire· 2025-10-01 18:35
产品发布核心 - Super X AI Technology Limited (SuperX) 于2025年10月1日发布其数据中心级解决方案SuperX Modular AI Factory [1] - 该方案旨在解决传统AI数据中心建设的核心挑战,包括长交付周期、高成本、高能耗和有限的可扩展性 [1] - 公司将其定位为对AI基础设施标准的系统性重构,标志着公司从AI基础设施集成商向解决方案提供商和标准制定者的战略升级 [5][6] 产品核心优势 - **超高速交付**:通过工厂预制和深度集成计算、冷却和电源系统,将交付和部署时间从传统的18-24个月缩短至6个月以下 [2][8] - **超高密度计算**:核心计算单元SuperX NeuroBlock支持高达24个NVIDIA GB200 NVL72系统,单机架功率密度达140kW,是传统解决方案(约20kW/机架)的7倍 [3][6] - **超高能效**:采用高压直流技术,端到端电源效率超过98.5%,结合先进液冷技术,将电源使用效率降至低至1.15,相比传统风冷系统(PUE约1.5)节省超过23%的总能耗 [8] - **超强灵活性**:模块化架构支持从1到N的弹性部署,显著降低初始资本支出,并能按需无缝扩展 [3][8] 产品技术规格 - **计算单元**:SuperX NeuroBlock,单单元功率容量高达3.5MW,支持高达24个NVIDIA GB200 NVL72系统 [3] - **冷却系统**:SuperX CryoPod,双源冷却系统,可选择干式冷却器或冷水机组,实现低功耗、无水运行 [3] - **能源系统**:SuperX Energy Vault & Green Energy Storage,旨在延长绿色电力利用的储能系统;SuperX Greenport & HyperGrid,预制高压直流配电系统;SuperX Power Core,工厂预制支持现场安装,支持生物柴油以降低碳排放 [3] - **占地面积**:一个20MW的模块估计仅需6000平方米的物理占地面积,并可采用“积木式”方法无限扩展 [4] 行业影响与公司定位 - 该解决方案将AI基础设施从“工程项目”转变为“标准化产品”,实现即插即用 [5] - 公司致力于推动行业从传统数据中心向下一代AI工厂的全面转型 [6] - 公司总部位于新加坡,为全球企业、研究机构以及云和边缘计算部署提供AI基础设施解决方案 [7]
告别54V时代,迈向800V,数据中心掀起电源革命
36氪· 2025-08-07 19:21
AI数据中心电力需求变革 - 全球AI数据中心电力需求正因ChatGPT、Claude、DeepSeek等AI应用爆发而达到临界点,机架功率从传统20-30kW跃升至500kW-1MW级别,英伟达单AI GPU服务器功率逼近1kW,满配NVL AI服务器机柜功率突破100kW [1] - 2027年规划的1MW AI Factory机架集群对供电系统提出颠覆性要求,行业加速向800V直流HVDC高压体系演进,该架构可降低能量损耗、提升能效并支持兆瓦级部署 [1] 传统供电系统局限性 - 传统54V直流供电系统在兆瓦级机架中面临空间占用过大问题:NVIDIA GB200 NVL72设备需8个电源架占用64U空间,挤压计算设备安装空间 [2] - 1MW机架采用54V供电需200千克铜母线,1GW数据中心需50万吨铜,且重复交直流转换导致效率低下和故障隐患增加 [3] - 800V HVDC方案可将13.8kV交流电直接转换,减少中间环节,降低70%维护成本并提升5%端到端能效 [4][5] 行业技术布局动态 - 英伟达2025年牵头成立800V HVDC联盟,目标2027年实现1MW单机架供电,整合芯片/电源/电气工程/数据中心全产业链 [4] - 微软推出Mount DrD Low分离式架构计划升级至400V HVDC,谷歌设计±400V全场直流供电方案,Meta分三步推进兆瓦级HVDC [5] - 英诺赛科成为英伟达800V架构唯一中国合作商,合作推动单机柜功率突破300kW,算力密度提升10倍 [6] 国产供应链技术突破 - 长电科技在800V架构中覆盖PSU/IBC/PoL全环节:提供TO263-7L/TOLL/TOLT封装分立器件和塑封模块,兼容GaN/SiC材料 [7] - 实现双面散热PDFN封装和SiP技术突破,完成60A以上高集成度电源模块研发,建立从热仿真到性能优化的全流程服务能力 [8] GaN技术优势分析 - 英诺赛科入选源于GaN供应紧张(台积电关闭产线),GaN相比SiC在高压场景具备更优性能表现 [9] - GaN HEMT器件具有ns级开关速度、无反向恢复电流特性,适合高频应用,能提升转换效率并缩减设备体积 [10][11] - GaN器件通过二维电子气导电实现低导通电阻,在800V架构中可减少发热量并提高功率密度 [12]
CoreWeave Becomes First Hyperscaler to Deploy NVIDIA GB300 NVL72 Platform
Prnewswire· 2025-07-04 00:14
文章核心观点 CoreWeave作为AI云服务提供商率先为客户部署最新NVIDIA GB300 NVL72系统并计划全球大规模扩展部署,持续在AI基础设施领域保持领先 [1][5] 分组1:GB300 NVL72系统情况 - NVIDIA GB300 NVL72在AI推理和智能体工作负载性能上有重大飞跃,用户响应速度最高提升10倍,每瓦吞吐量提高5倍,推理模型推理输出增加50倍 [2] 分组2:CoreWeave部署情况 - CoreWeave是首个为客户部署NVIDIA GB300 NVL72系统的AI云服务提供商,计划全球大规模扩展部署 [1] - CoreWeave与Dell、Switch和Vertiv合作构建GB300 NVL72系统初始部署,将最新NVIDIA GPU引入其AI云平台 [3] - GB300 NVL72部署与CoreWeave云原生软件栈紧密集成,硬件级数据和集群健康事件通过其收购的Weights & Biases开发者平台集成 [4] 分组3:CoreWeave过往成就 - CoreWeave此前率先提供NVIDIA H200 GPU,是首个让NVIDIA GB200 NVL72系统广泛可用的AI云服务提供商,此次GB300 NVL72初始部署扩展了其现有Blackwell机队 [5] - 2025年6月CoreWeave与NVIDIA和IBM合作,使用近2500个NVIDIA GB200 Grace Blackwell超级芯片提交最大规模MLPerf® Training v5.0基准测试,在最复杂模型Llama 3.1 405B上27.3分钟取得突破结果 [6] - CoreWeave是唯一获SemiAnalysis的GPU Cloud ClusterMAX™评级系统最高白金评级的超大规模云服务提供商 [6] 分组4:CoreWeave公司介绍 - CoreWeave是AI超大规模云服务提供商,提供前沿软件驱动的云平台,为企业和领先AI实验室提供加速计算云解决方案,自2017年在美欧运营数据中心,2024年入选TIME100最具影响力公司和福布斯云100榜单 [7]
Nebius Is The Only Pure Play On Europe's AI Sovereignty
Seeking Alpha· 2025-06-24 00:59
公司融资与业务进展 - Nebius在8周内完成10亿美元两批次可转换票据定价,发行时间为6月5日 [1] - 公司同步实现NVIDIA GB200 NVL72产品的即时交付 [1] 技术认证与行业地位 - 公司获得"AWS Certified AI Practitioner Early Adopter"认证,显示其在AI实践领域的早期领先地位 [1] - 团队包含来自财富500强企业的DevOps工程师,具备AI工具构建、部署及维护的实战经验 [1] 技术能力与研发投入 - 团队成员拥有生成式AI系统的深度科学知识,涵盖机器学习算法、模型训练及部署等全流程 [1] - 正推进更高级别的AWS机器学习认证,以强化AI与机器学习领域的技术壁垒 [1] 行业影响力 - 公司技术专家通过Seeking Alpha平台分享AI与机器学习的投资视角,在TipRanks的31,393名财经博主中排名第792位 [1]