NVIDIA NVLink 6
搜索文档
英伟达塑造“Token经济学”
21世纪经济报道· 2026-03-18 07:10
Vera Rubin平台与芯片发布 - 公司宣布Vera Rubin平台开启Agentic AI新时代,旨在构建全球最大的AI工厂,该平台包含七款已全面投入生产的新芯片[1][14] - 七款芯片包括:NVIDIA Vera CPU(服务器CPU)、NVIDIA Rubin GPU、NVIDIA NVLink 6(第六代交换机芯片)、NVIDIA ConnectX-9 SuperNIC(超级网卡)、NVIDIA BlueField-4 DPU(存储芯片)、NVIDIA Spectrum-6(支持CPO技术的以太网交换机芯片)以及新集成的NVIDIA Groq 3 LPU[1][15] - 这些芯片能够组成五种机架在数据中心运行,标志着公司从单一芯片竞争进入全方位的系统级竞赛阶段[1][16] 技术规格与性能突破 - Rubin架构计划于2026年下半年量产,采用台积电3nm工艺,Vera CPU(88核自研架构)与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成[4][18] - 采用“去PCIe化”紧耦合设计,单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,规模化推理能效较Blackwell提升5倍[4][18] - 平台为Agentic AI与长上下文推理设计,引入Transformer Engine 3.0等技术,使AI能处理数万个Token的上下文,单机柜NVL72内部互联总带宽达260 TB/s[5][19] - Vera CPU机架集成256个Vera CPU,基于MGX液冷基础设施,其效率是传统CPU的两倍,速度提升50%[5][19] 市场预测与客户进展 - 公司CEO预测,Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,较去年10月的5000亿美元预测翻倍[2][15] - 已确认合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius和Nscale,芯片已全面投产并将于今年下半年供货[6][20] Groq LPU与混合算力战略 - 公司通过200亿美元战略授权并集成Groq LPU架构,新推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s扩展带宽[6][21] - LPU采用确定性流水线架构,消除计算抖动,专为Agentic AI与实时交互设计,能保证毫秒级任务的执行时间恒定,将复杂Agent链条的思考时间从数分钟缩短至数秒[9][22] - 公司构建混合算力帝国:GPU负责万亿参数模型训练与长文本预处理,LPU阵列以10倍于对手的能效比统治实时推理市场,实现训练与推理分离[10][23] 软件、模型与生态系统建设 - 面向OpenClaw社区推出NemoClaw软件栈,提供基础软件能力,支持通过一条命令安装Nemotron模型和OpenShell运行时环境,为AI代理增加安全与隐私控制[11][23] - NemoClaw支持本地与云端模型混合调用,可运行于GeForce RTX设备、RTX PRO工作站及DGX系统,为全天候AI代理提供算力[12][24] - 宣布成立Nemotron联盟,联合全球AI实验室推进开放前沿模型发展,并扩展Nemotron 3系列多模态模型,包括Ultra、Omni和VoiceChat等版本[12][24] - 发布应用于物理世界的新模型,包括面向类人机器人的Isaac GR00T N1.7模型、面向自动驾驶的Alpamayo 1.5模型,以及即将推出的统一世界基础模型Cosmos 3[13][25] 行业趋势与战略定位 - 公司CEO强调“Token”是AI时代的新货币,AI工厂是生成Token的基础设施,公司通过Vera Rubin DSX AI Factory参考设计和Omniverse数字孪生蓝图提供构建最高生产力AI工厂的基础[6][20] - 行业趋势显示,巨头正通过聚集能力、补齐短板、延伸上下游来构建强大壁垒,单一比拼芯片性能的阶段已过去,系统级竞赛正在上演[2][16]
黄仁勋发表重磅演讲!称2027营收至少万亿美元,“龙虾”就是新操作系统!英伟达宣布:七款新芯片全面投产
每日经济新闻· 2026-03-17 10:53
公司核心产品与战略 - 英伟达在GTC 2026大会上宣布,基于Vera Rubin架构的七款新芯片已全面投入生产,产品线包括NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6以及新集成的NVIDIA Groq 3 LPU [2][12][13] - 这些芯片可组成5款机架,Vera Rubin平台将其整合为一台强大的AI超级计算机,能够支持大规模预训练、后训练、测试时扩展以及实时智能推理 [2][3][12] - 公司CEO黄仁勋将Vera Rubin平台定义为一次“代际跃迁”,并称其将开启Agentic AI新时代,构建全球最大的AI工厂,推动历史上最大规模的基础设施建设 [2][3][12] 财务预测与市场前景 - 公司CEO黄仁勋预测,其新一代AI加速芯片架构Blackwell与下一代Rubin产品,到2027年底将创造至少1万亿美元收入,这一预测较其2025年10月给出的5000亿美元销售预测翻倍 [1][3][4] - 黄仁勋表示,目前对Blackwell和Rubin产品到2027年已看到至少1万亿美元的高确信度需求 [4][16] - 此预测发布后,英伟达股价盘中最多上涨超4%,最终收盘上涨1.6% [16] 行业范式与商业模式革新 - 公司CEO黄仁勋提出了“代币工厂(Token Factory)”概念,指出未来的数据中心将不再是存储中心,而是生产智能代币(Token)的工厂 [1][5][11] - 黄仁勋阐述了“Token工厂经济学”,认为在受电力限制(如1吉瓦)的数据中心里,每瓦Token吞吐量最高的厂商将拥有最低的生产成本 [7][17][20] - 黄仁勋将未来的AI服务划分为五个商业层级:免费层(高吞吐、低速度)、中级层(约每百万token 3美元)、高级层(约每百万token 6美元)、高速层(约每百万token 45美元)和超高速层(约每百万token 150美元) [7][20] 技术优势与性能表现 - 黄仁勋强调,英伟达的架构能够让客户在免费层实现极高的吞吐量,同时在最高价值的推理层级上,将性能提升惊人的35倍 [7][21] 软件生态与行业影响 - 黄仁勋高度评价开源项目OpenClaw,称其为“人类历史上最受欢迎的开源项目”,仅用几周时间就超越了Linux过去30年的成就,并指出OpenClaw本质上是Agent计算机的“操作系统” [9][23] - 黄仁勋断言,每一个SaaS公司都将变成AaaS(智能体即服务)公司,为此英伟达推出了企业级的NeMo Claw参考设计,增加了策略引擎和隐私路由器以确保智能体安全 [9][23] - 黄仁勋描绘了未来的职场形态,指出工程师将获得年度Token预算,其额度可能约为基础年薪(几十万美元)的一半,以实现10倍的效率提升,这已成为硅谷新的招聘筹码 [9][23] 未来技术路线图 - 黄仁勋在演讲最后“剧透”了下一代计算架构Feynman,它将首次实现铜线与CPO的共同水平扩展 [9][23] - 英伟达正在研发可部署在太空的数据中心计算机“Vera Rubin Space-1”,探索AI算力向地球之外延伸 [9][23]
王炸!英伟达连发7款芯片,黄仁勋演讲刷屏
21世纪经济报道· 2026-03-17 09:53
公司核心动态与市场反应 - 英伟达在年度GTC大会上宣布多项重磅技术突破,公司创始人兼CEO黄仁勋预测新一代AI加速芯片架构等将至少创收1万亿美元 [1] - 黄仁勋演讲后,英伟达股价应声上涨,盘中最高涨4.31%,收盘涨1.65% [2] - 东方财富概念板块显示,A股市场涉及英伟达概念的个股有近60只,合计总市值超2.7万亿元 [3] - 今年以来,英伟达概念股走势分化,近六成个股录得上涨,其中利通电子大涨1.3倍居首 [4] 新一代AI芯片架构与平台:Vera Rubin - 英伟达宣布Vera Rubin(最新芯片架构)目前已有七款新芯片全面投入生产,该平台正在开启Agentic AI新时代,旨在构建全球最大的AI工厂 [6] - Vera Rubin平台是一次代际跃迁,包含七个突破性芯片、五种机架、一台巨型超级计算机,为AI的每一个阶段提供动力 [6] - 黄仁勋预测,Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,相比去年10月的5000亿美元销售预测已经翻倍 [6] - Vera Rubin架构全面转场台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现物理意义上的同封装集成 [11] - 单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,其规模化推理能效较Blackwell提升了5倍 [11] - 在训练大型混合专家模型时,与Blackwell平台相比,Rubin仅需四分之一数量的GPU,并实现每瓦推理吞吐量最高10倍,同时每token成本为十分之一 [12] - 英伟达推出了Vera Rubin DSX AI工厂参考设计,教大家如何设计、建设和运营整个AI工厂基础设施堆栈 [15] - 公司预告了下一代Feynman系统,预计将于2028年发布 [15] 系统级创新与战略转型 - 英伟达的技术路径预览明确,从Hopper、Blackwell、到Rubin、再到Feyman,锁定了至少未来5年的算力交付能力 [7] - 算力的较量已经从单芯片过渡到AI基础设施系统化建设,2026年正式开启了系统级进化的新纪元 [7] - 英伟达正转型为AI基建企业,通过构建从算力到应用的完整体系,试图成为AI时代的基础平台 [8] - 巨头们正在不断聚集能力,补齐短板,延伸上下游,形成更强大的壁垒,单一比拼芯片的阶段已经过去 [9] - 公司越来越关注能耗问题,与能源提供商及超200家数据中心基础设施合作伙伴合作,发布DSX平台 [14] - 新的DSX平台包括DSX Max-Q和DSX Flex软件,旨在在固定电力的数据中心内部署30%更多的AI基础设施,并释放100 gigawatts的闲置电网电力 [14] 推理芯片与混合算力:Groq LPU - 英伟达通过200亿美元战略授权并深度集成了Groq LPU架构,标志着公司将AI竞争从“训练效率”扩展到“推理效率” [18] - 推出的Groq 3 LPX机架包含256个 LPU处理器,具有128GB片上SRAM和640 TB/s的扩展带宽 [18] - 当与Vera Rubin NVL72一起部署时,Rubin GPU和LPU通过共同计算AI模型每一层来提升解码速度 [18] - LPX与Vera Rubin结合,将实现每兆瓦推理吞吐量最高35倍,并为万亿参数模型带来最高10倍的收入机会 [19] - LPU舍弃了HBM,密布高达230MB的片上SRAM,内存带宽升至80 TB/s,达到顶级 Blackwell GPU的十倍 [20] - LPU能够在单批次推理中实现极低的首字延迟,Token生成速度稳定维持在1600 tokens/s以上 [20] - 英伟达将训练和推理分离,构建了一个混合算力帝国,正式宣告了“推理即时化”时代的到来 [21] AI代理、开放模型与生态建设 - 英伟达围绕AI代理、开放模型以及跨行业应用发布了一系列重要进展 [23] - 公司推出面向OpenClaw生态的NemoClaw软件栈,被黄仁勋评价为“个人AI的操作系统” [24] - NemoClaw支持本地模型与云端模型的混合调用,可以运行在多种专用计算平台上 [25] - 英伟达宣布成立Nemotron Coalition,联合全球多家领先AI实验室与模型开发机构,共同推进开放前沿模型的发展 [25] - 联盟的首个项目将由Mistral AI与英伟达联合开发基础模型,该模型将成为NVIDIA Nemotron 4开放模型家族的重要基础 [26] - 英伟达扩展了多条开放模型产品线,包括强化多模态理解能力的NVIDIA Nemotron 3系列模型 [26] - 公司发布用于机器人和自动驾驶系统的多种基础模型,如NVIDIA Isaac GR00T N1.7、NVIDIA Alpamayo 1.5以及即将推出的NVIDIA Cosmos 3 [26]
王炸!英伟达连发7款芯片,黄仁勋演讲刷屏
21世纪经济报道· 2026-03-17 09:44
文章核心观点 - 英伟达在GTC 2026大会上发布了新一代Vera Rubin AI加速芯片架构及平台,标志着AI基础设施从单芯片竞争进入系统级建设的新纪元,公司预测其Blackwell与Rubin芯片到2027年底的收入将达到1万亿美元[1][5] - 公司通过整合CPU、GPU、LPU、DPU及交换机芯片等全系产品,构建从芯片、机架到完整AI工厂的集成系统,旨在成为AI时代的基础平台,并开启“代理型AI”的新时代[4][5][7] - 英伟达的股价在GTC大会主题演讲后应声上涨,盘中最高涨4.31%,收盘涨1.65%[1] 英伟达GTC 2026技术发布总结 新一代Vera Rubin平台与芯片 - 宣布Vera Rubin平台开启“代理型AI”新时代,目前已有七款新芯片全面投入生产,包括NVIDIA Vera CPU、Rubin GPU、NVLink 6、ConnectX-9 SuperNIC以及新集成的NVIDIA Groq 3 LPU[4][5] - Vera Rubin是一次代际跃迁,集成了七个突破性芯片、五种机架,可形成一台强大的AI超级计算机,为AI的每一个阶段提供动力[5] - Rubin架构全面采用台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成,单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops[9] - 与Blackwell平台相比,Rubin在训练大型混合专家模型时仅需四分之一数量的GPU,实现每瓦推理吞吐量最高10倍,同时每token成本为十分之一[10] - 公司推出了Vera Rubin NVL72机架,通过NVLink 6连接72个Rubin GPU和36个Vera CPU,内部互联总带宽达到260 TB/s[9][10] - 推出了基于MGX构建的Vera CPU机架,集成256个Vera CPU,其效率是传统CPU的两倍,速度提升50%[11] - 与英伟达合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius和Nscale,芯片已全面投产并将于2026年下半年供货[11] - 公司预告了下一代Feynman系统,预计将于2028年发布,配备全新的GPU、LPU、名为Rosa的全新CPU、Bluefield 5以及Kyber架构[14] Groq LPU推理芯片与混合算力 - 英伟达通过200亿美元战略授权并深度集成了Groq LPU架构,推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s的扩展带宽[17] - 当LPX与Vera Rubin NVL72一起部署时,通过共同计算AI模型每一层来提升解码速度,实现每兆瓦推理吞吐量最高35倍,并为万亿参数模型带来最高10倍的收入机会[17] - LPU采用确定性流水线架构,密布高达230MB的片上SRAM,内存带宽升至80 TB/s,是顶级Blackwell GPU的十倍,能在单批次推理中实现极低延迟,Token生成速度稳定在1600 tokens/s以上[19] - LPU与GPU构建混合算力帝国:GPU负责后方模型训练,LPU阵列在前方以高能效比与极速响应统治实时推理市场[20] 系统级创新与AI工厂 - AI基础设施的较量已从单芯片过渡到系统级建设,英伟达带来了系统级创新[6] - 公司推出了DSX平台,包括DSX Max-Q和DSX Flex软件,旨在优化能源使用,可在固定电力的数据中心内部署30%更多的AI基础设施,并释放100 gigawatts的闲置电网电力[13] - 推出了Vera Rubin DSX AI工厂参考设计,教客户如何设计、建设和运营整个AI工厂基础设施堆栈[14] - 黄仁勋表示,在AI时代,智能token是新的货币,而AI工厂是生成这些token的基础设施[14] 软件、模型与生态布局 - 推出面向OpenClaw生态的NemoClaw软件栈,提供基础软件能力,支持本地与云端模型混合调用,可运行在多种专用计算平台上[22][23][24] - 成立Nemotron Coalition联盟,联合全球多家领先AI实验室与模型开发机构,共同推进开放前沿模型的发展,创始成员包括Mistral AI、Perplexity等[24] - 联盟的首个项目将由Mistral AI与英伟达联合开发基础模型,该模型将成为NVIDIA Nemotron 4开放模型家族的重要基础[25] - 扩展了多条开放模型产品线,包括强化多模态理解能力的Nemotron 3系列模型,以及用于机器人、自动驾驶系统的多种基础模型,如Isaac GR00T N1.7和Alpamayo 1.5[25] 市场与行业影响 英伟达自身市场表现 - GTC大会主题演讲后,英伟达股价盘中最高涨4.31%,截至收盘涨1.65%,报183.220美元[1][2] - 公司预测Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,相比去年10月的5000亿美元预测已翻倍[5] A股英伟达概念股表现 - 东方财富概念板块显示,当前A股市场涉及英伟达概念的个股有近60只,合计总市值超2.7万亿元[2] - 工业富联总市值遥遥领先,胜宏科技、英维克总市值也超千亿元[2] - 2026年以来,近六成英伟达概念股录得上涨,利通电子大涨1.3倍居首,和林微纳、罗博特科分别上涨86.82%和62.42%[3]
燃爆!英伟达连发7款芯片,黄仁勋剑指万亿AI芯片收入
21世纪经济报道· 2026-03-17 09:17
公司产品发布:Vera Rubin平台与芯片家族 - 英伟达在GTC大会上宣布,Vera Rubin芯片架构已有七款新芯片全面投入生产,该平台旨在开启Agentic AI新时代并构建全球最大的AI工厂 [1] - 七款新芯片包括:NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6以及新集成的NVIDIA Groq 3 LPU,这些芯片可组成5款机架在数据中心运行 [2] - Vera Rubin平台将这些芯片汇聚成一台强大的AI超级计算机,可支持大规模预训练、后训练、测试时扩展以及实时智能推理 [2] 技术架构与性能突破 - Rubin架构全面采用台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成,这种"去PCIe化"设计使单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops [6] - 与Blackwell平台相比,Rubin在训练大型混合专家模型时仅需四分之一数量的GPU,实现每瓦推理吞吐量最高10倍,同时每token成本为十分之一 [7] - 核心机架产品Vera Rubin NVL72通过NVLink 6连接72个Rubin GPU和36个Vera CPU,内部互联总带宽达到260 TB/s,相当于全球互联网跨境带宽总和的数倍 [6][7] 系统级创新与AI工厂 - 英伟达的竞争已从单芯片过渡到AI基础设施系统化建设,2026年开启了系统级进化的新纪元 [4] - 公司推出Vera Rubin DSX AI工厂参考设计,教客户如何设计、建设和运营整个AI工厂基础设施堆栈,以实现可重复、可扩展且最优的集群性能 [10] - 新的DSX平台包括DSX Max-Q和DSX Flex软件,前者可在固定电力的数据中心内部署30%更多的AI基础设施,后者可使AI工厂成为电网灵活资产,从而释放100 gigawatts的闲置电网电力 [8][9] 市场预测与战略定位 - 公司创始人预测,Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,相比去年10月的5000亿美元销售预测已经翻倍 [3] - 公司正从AI时代的"铲子商"转型为构建从算力到应用完整体系的基础平台,试图成为AI时代中水和电的角色 [5] - 公司锁定了至少未来5年的算力交付能力,其技术路径预览明确,从Hopper、Blackwell到Rubin,再到已预告的下一代Feynman系统 [3][10] Groq LPU整合与推理革命 - 公司通过200亿美元战略授权并深度集成Groq LPU架构,将AI竞争从"训练效率"扩展到"推理效率" [11] - 推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s的扩展带宽,与Vera Rubin NVL72协同可提升解码速度 [11] - LPU采用确定性流水线架构,密布高达230MB的片上SRAM,内存带宽达80 TB/s,是顶级Blackwell GPU的十倍,能在单批次推理中实现极低延迟,Token生成速度稳定在1600 tokens/s以上 [12][13] - LPX与Vera Rubin结合,可实现每兆瓦推理吞吐量最高35倍,并为万亿参数模型带来最高10倍的收入机会 [11] 软件与开发生态布局 - 公司推出面向OpenClaw生态的NemoClaw软件栈,提供基础软件能力,使开发者可以通过命令安装模型和OpenShell运行时环境,并为AI代理增加安全与隐私控制能力 [16][17] - NemoClaw支持本地模型与云端模型的混合调用,可运行在多种计算平台上,包括搭载GeForce RTX的PC、笔记本电脑、工作站及DGX系统 [18] - 公司宣布成立Nemotron Coalition,联合全球多家领先AI实验室与模型开发机构共同推进开放前沿模型的发展,创始成员包括Mistral AI、Perplexity等 [18] 模型与应用扩展 - NVIDIA Nemotron 3系列模型推出Ultra、Omni和VoiceChat等多个版本,强化多模态理解能力,可同时处理语言、视觉与语音信息 [20] - 公司推出用于现实世界的AI模型,包括面向类人机器人的NVIDIA Isaac GR00T N1.7、面向自动驾驶的NVIDIA Alpamayo 1.5以及即将推出的统一世界基础模型NVIDIA Cosmos 3 [20] - 公司还发布了面向物理AI的开放式Physical AI数据工厂蓝图,以及将AI引入轨道的太空计算服务 [5]
Supermicro Announces Support for Upcoming NVIDIA Vera Rubin NVL72, HGX Rubin NVL8 and Expanded Rack-Scale Manufacturing Capacity for Liquid-Cooled AI Solutions
Prnewswire· 2026-01-06 07:00
核心观点 - 超微电脑宣布扩大制造产能和液冷能力,并与英伟达合作,旨在率先交付针对英伟达Vera Rubin和Rubin平台优化的数据中心规模解决方案,为客户在下一代AI基础设施中提供决定性竞争优势 [1] - 公司凭借其数据中心构建块解决方案和先进的直接液冷技术,结合美国本土内部设计/制造,加速了下一代液冷AI基础设施的部署时间 [1] 产品与技术合作 - 超微电脑通过与英伟达的加速开发和合作,能够快速部署旗舰产品英伟达Vera Rubin NVL72和英伟达HGX™ Rubin NVL8系统 [1] - 公司提供针对英伟达Vera Rubin平台优化的旗舰产品,包括NVIDIA Vera Rubin NVL72超级集群和2U液冷英伟达HGX Rubin NVL8系统 [5] - NVIDIA Vera Rubin NVL72超级集群将72个英伟达Rubin GPU和36个英伟达Vera CPU等统一为一致平台,提供3.6百亿亿次浮点运算的NVFP4性能、1.4 PB/s的HBM4带宽和75 TB快速内存 [5] - 2U液冷英伟达HGX Rubin NVL8系统为AI和HPC工作负载优化,提供400千万亿次浮点运算的NVFP4性能、176 TB/s的HBM4带宽、28.8 TB/s的NVLink带宽和1600 Gb/s的网络连接 [5] - 平台关键特性包括:NVLink™ 6高速互连、性能较上一代提升2倍的英伟达Vera CPU、第三代Transformer引擎、第三代机密计算和第二代RAS引擎 [5] - 平台还受益于新发布的英伟达Spectrum-X以太网光子网络,基于Spectrum-6以太网ASIC,与传统可插拔光模块相比,能效提升5倍,可靠性提升10倍,应用正常运行时间提升5倍 [6] 制造与部署优势 - 超微电脑的DCBBS方法实现了简化生产、广泛的定制选项和更快的部署时间 [1] - 公司在美国、台湾和荷兰进行内部设计和制造,利用全球运营实现规模和效率 [8] - 公司对扩大制造设施和端到端液冷技术堆栈的战略投资,旨在简化全液冷英伟达Vera Rubin和Rubin平台的生产和部署 [7] - 结合模块化DCBBS架构,这些能力通过实现快速配置、严格验证和高密度平台的无缝扩展,加速了部署和上线时间,确保客户获得率先上市的优势 [7] 液冷技术 - 超微电脑在NVIDIA Vera Rubin NVL72超级集群的实施中采用了增强的数据中心规模液冷技术堆栈,包括行内冷却液分配单元,支持可扩展的温水冷却操作,最大限度减少能耗和用水,同时最大化密度和效率 [5] - 2U液冷英伟达HGX Rubin NVL8系统可选配高密度2U母线排设计,采用公司行业领先的先进直接液冷技术 [5] - 公司扩大的制造能力和行业领先的液冷专业知识,赋能超大规模企业和企业以无与伦比的速度、效率和可靠性大规模部署英伟达Vera Rubin和Rubin平台基础设施 [2]