Workflow
Vera Rubin平台
icon
搜索文档
推理需求爆发,国产芯片从“堆算力”转向系统协同
第一财经· 2026-01-27 20:00
行业趋势与共识 - 大模型行业经过2025年发展已形成共识,推理需求将以复合倍速增长,行业需要高性能、高性价比的芯片 [3] - AI应用场景发生变化,多模态需求爆发,智能体需要高频响应与实时交互,物理AI也在加速落地 [3] - 行业成本结构改变,推理成本已从“元级”压到“分级”,未来AI会像水电一样成为普惠基础设施 [3] - 每当百万token的成本降低一半,市场上AI应用数量会显著增长,算力市场的繁荣度也将呈倍数级提升 [5] 公司战略与产品发布 - 曦望公司于1月27日发布第三代推理GPU芯片启望S3,设定目标是将百万token成本打到一分钱 [3] - 公司战略专注推理方向,预计到2030年,推理芯片将占到公司资源分配的80% [3] - 截至目前,曦望已发布三款芯片:云边端视觉推理专用的S1、对标英伟达A100的训推一体芯片S2,以及最新的推理芯片S3 [3] - 公司认为先将推理做到极致能够在商业上形成优势,这是战略定力问题 [3] - 曦望同时发布了AI算力平台,以自研芯片为底座,与多家大模型进行适配,从系统侧提高芯片利用效率 [4] 技术挑战与竞争焦点 - 训推一体芯片存在三大困境:成本高昂且供应不稳定、能耗惊人、部署运维复杂 [4] - 芯片行业竞争核心从“堆算力”转变,随着推理算力需求爆发,“内存墙”逐渐成为芯片性能的主要瓶颈 [4] - 计算单元算力提升速度远快于访存带宽提升速度,导致大多数芯片的纸面算力无法在实际场景中释放,这一矛盾在推理芯片中尤为突出 [4] - 未来合理的算力访存比才是芯片竞争的关键,该指标是衡量芯片算力与数据传输能力匹配度的核心 [4] - 英伟达创始人提出从单芯片优化升级为系统级协同设计的方案,以应对挑战 [4] 产业生态与国产算力定位 - 以DeepSeek为代表的大模型公司,不仅会做大模型,也会牵引框架变化,带动从模型架构到算子开发、推理系统的全链路技术创新 [4] - 大模型公司正推动框架适配新计算范式与跨硬件部署,试图摆脱对英伟达CUDA生态的依赖 [4] - 国产芯片定位越来越准确,从最初盲目追求与国际高性能算力比肩,转变为在追求性能的同时也追求极致成本 [5] - 国产算力正处于一个非常有利的位置 [1][5]
三星电子HBM4芯片获英伟达(NVDA.US)认证,下月启动量产 5月开始大规模出货
智通财经网· 2026-01-26 12:13
三星电子HBM4生产与供应计划 - 三星电子计划于下个月开始生产下一代高带宽内存芯片HBM4 并供应给英伟达[1] - 三星电子已通过英伟达和AMD的HBM4资格测试 将于下个月开始向英伟达出货[1] - 三星电子DS部门决定从2月起启动英伟达用12层堆叠HBM4的晶圆投片[1] - 若产品顺利通过认证 从2月投片开始 三星还需要大约3个月完成工艺优化 具备商业供货条件的量产产品或将在5月中旬形成规模[1] 三星电子在HBM领域的竞争地位 - 三星电子在去年因HBM供应延迟打击了收益和股价后 一直试图追赶同城对手SK海力士[1] - 三星电子HBM4产品在去年底进入英伟达最终认证阶段 使其在全球三大存储芯片厂商的进度领先于海力士和美光[1] SK海力士的HBM生产计划 - SK海力士计划下个月开始在韩国清州的新工厂M15X部署硅晶圆以生产HBM芯片[2] - SK海力士在去年10月已完成与主要客户关于明年HBM供应的谈判[1] 行业动态与信息披露 - 三星电子和SK海力士都定于周四公布第四季度财报 届时预计将分享HBM4订单的详细信息[3] - 英伟达首席执行官黄仁勋表示 随着公司准备在今年晚些时候推出与其配套的HBM4芯片 其下一代芯片Vera Rubin平台已进入"全面生产"阶段[3]
中国数据中心设备:Rubin聚焦电源与制冷升级-China Data Center Equipment_ Power and cooling upgrades in focus for Rubin
2026-01-15 14:33
涉及的行业与公司 * **行业**:中国数据中心设备行业,特别是AI数据中心相关的供电与冷却设备 [2][3] * **公司**:科华数据 (Kehua Data, 002335.SZ) 与 科士达 (Shenzhen KSTAR Science and Technology Co, 002518.SZ) [4][20] 核心观点与论据 * **AI硬件升级驱动供电与冷却需求**:NVIDIA在CES上发布的Rubin平台(预计2026年推出)将推动数据中心设备需求,其机柜功率预计比前代Blackwell翻倍,并将液冷采用率从80%提升至100% [2] * **VR200 NVL72性能与功耗大幅提升**:VR200 NVL72的AI训练/推理算力约为GB300 NVL72的3.5倍/5倍,导致机柜级功耗需求急剧增加 [3] * **供电系统具体升级**:VR200 NVL72将电源柜升级为3*3U 110 kW(使用6个18.3 kW PSU),而常见的GB300配置为8*1U 33 kW电源柜(使用6个5.5 kW PSU),并采用3+1冗余设计 [3] * **架构演进与未来趋势**:VR200 NVL72被视为Oberon机柜架构的最终代,仅支持54V直流配电并使用UPS,为应对持续增长的功耗,预计将过渡至支持800V高压直流(HVDC)的下一代Kyber机柜设计,预计Rubin Ultra在2027年的潜在发布将进一步释放HVDC需求潜力 [3] * **投资标的推荐逻辑**:科士达和科华数据有望受益于更强的UPS需求以及向HVDC和固态变压器(SST)的潜在产品升级,科士达预计通过代工厂商战略合作从美国超大规模云厂商获得强劲订单,科华数据虽海外敞口较低,但国内GPU上量及H200出货可能提振其国内超大规模云厂商订单 [4] 其他重要内容 * **行业下行风险**:包括AI数据中心容量增长慢于预期、高功率密度产品渗透慢于预期、在海外AI数据中心设备供应链中市场份额增长慢于预期 [6] * **科华数据特定风险**:下行风险包括IDC扩容慢于预期拖累整体数据中心产品增长、因客户验证周期长导致进入海外超大规模云厂商供应链进度低于预期、海外ESS产品出货低于预期、新进入者抢占市场份额,上行风险则包括上述因素进展快于预期以及凭借与超大规模云厂商的牢固关系获得份额增长 [7] * **科士达特定风险**:下行风险与科华数据类似,但特别提及BESS产品出货复苏低于预期,上行风险包括进入海外超大规模云厂商供应链进度快于预期、海外BESS产品出货高于预期、凭借与全球领先UPS品牌的牢固关系获得份额增长 [8] * **估值方法与评级**:对两家公司的目标价均基于DCF估值法,均给予“买入”评级,截至2026年1月9日,科华数据目标价78.50元人民币,股价66.40元人民币,科士达目标价74.70元人民币,股价53.57元人民币 [7][8][20][26]
黄仁勋彻底不装了!一口气亮出6颗全新芯片,马斯克都看呆了!
新浪财经· 2026-01-15 07:37
公司战略与产品发布 - 英伟达在2026年CES电子展上一次性发布了六款全新AI芯片,其发布意义被描述为一次近乎颠覆性的重构,而非简单的产品更新[1][3] - 公司推出了全新的Vera Rubin平台,该平台将芯片算力提升了5倍,并大幅压缩了推理成本[3] - 新产品平台引入了“动态稀疏计算”和“异构内存池”等底层创新概念,旨在让软件开发者能更自由地调度资源,摆脱硬件束缚[8] - 公司正全力押注“物理AI”概念,旨在让AI走出数据中心,进入真实世界,实现与人类社会的深度理解和互动[10] - 公司展示了搭载100亿参数视觉-语言-动作转换数据模型的自动驾驶系统,该系统能在无预设路径下,通过视觉识别处理复杂路况[10] - 通过此次发布,英伟达的身份可能从一个工具售卖者转变为AI市场的直接入局者,其长期目标是构建一个能感知并自主应对现实世界的物理世界操作系统[12] 行业竞争格局 - 表面上英伟达仍是AI芯片的绝对霸主,但暗地里其地位面临挑战[5] - 华为昇腾、寒武纪等国产AI芯片方案加速落地,比亚迪自建AI训练集群,均已成为英伟达的挑战者[5] - 谷歌、微软、Meta等英伟达曾经的忠实客户纷纷转向自研芯片[5] - 2025年底,谷歌TPU芯片开始大规模铺货,可能替代H100,此消息导致英伟达市值蒸发8%,损失近数千亿美元[5] 公司面临的挑战与应对 - AI模型的参数量正以每年10倍的速度膨胀,而芯片性能提升开始触及物理天花板,若不推出颠覆性方案,公司的技术壁垒可能在2026年被攻破[7] - 为应对“去英伟达化”浪潮,公司斥资200亿美元收购了曾为美国国家安全局打造超低延迟芯片的公司Groq,将其作为关键棋子[8]
行业周报:英伟达全新存储架构扩张存储需求,半导体上游国产化持续-20260111
开源证券· 2026-01-11 18:43
行业投资评级 - 投资评级:看好(维持) [2] 报告核心观点 - 英伟达全新AI芯片架构Vera Rubin及存储架构显著扩张AI算力与存储需求,叠加半导体上游持续涨价,驱动行业景气上行 [5][6] - AI终端升级政策与厂商计划加速落地,进一步拉动产业链需求 [5] - 国内半导体上游国产化进程持续,部分环节存在涨价行情,相关产业链公司受益 [4][6] 市场回顾 - 本周(2026.1.05-2026.1.11)电子行业指数上涨3.83%,半导体板块上涨4.80%,其中半导体设备子板块上涨12.24%,存储器子板块上涨10.77% [4] - 海外科技股上涨,纳斯达克指数本周上涨1.63%,SK海力士股价上涨9.90%,美光股价上涨9.41%,闪迪股价上涨37.12% [4] 行业动态:终端 - 工业和信息化部等八部门印发《“人工智能+制造”专项行动实施意见》,支持端侧模型等技术突破,培育智能手机、电脑等人工智能终端 [5] - 三星电子计划在2026年将支持谷歌Gemini AI功能的移动设备数量从2025年的4亿台提升至8亿台 [5] 行业动态:算力 - 英伟达在CES 2026发布全新AI芯片架构Vera Rubin,其核心Rubin GPU的推理性能达到上一代Blackwell平台的5倍 [5] - Vera Rubin平台包含六款核心芯片,采用全新液冷设计以提升集成度并缩短组装时间 [5] 行业动态:存力 - 英伟达提出全新存储架构,通过BlueField-4为推理平台提供支持,在每个GPU原有1TB内存的基础上额外增加16TB内存 [6] - 三星电子与SK海力士计划在2026年第一季度将服务器DRAM价格较2025年第四季度提升60%至70%,并向个人电脑与智能手机DRAM客户提出相近幅度的涨价方案 [6] 行业动态:AI基座 - 商务部决定自2026年1月7日起,对原产于日本的进口二氯二氢硅进行反倾销立案调查 [6] 投资建议 - AI持续拉动存储需求,半导体上游fab、封测等均存在涨价行情 [6] - 受益标的包括:中芯国际、华虹半导体、甬矽电子、华峰测控、海光信息、寒武纪、芯原股份等 [6]
从预训练到推理拐点,英伟达能靠Rubin延续霸权吗?
雷峰网· 2026-01-09 16:52
文章核心观点 - 英伟达发布下一代AI计算平台Vera Rubin(六芯组合),标志着其战略从单芯片性能竞赛转向多芯片系统协同与全栈算力基础设施升级,以应对AI推理时代的挑战并巩固市场地位[1][4][5] - 该战略转向揭示了单芯片性能红利触顶的行业现实,多芯片协同与系统设计能力成为新的竞争关键,这为国产芯片厂商在长期内提供了新的发展机遇[6][11] - Rubin平台在追求高性能与低成本的同时,其大规模落地面临动态精度调整、能源功耗与散热等多重技术与实践关卡的考验[5][13][21] 根据相关目录分别进行总结 战略转向:从芯片到系统 - 英伟达在CES 2026发布集成Vera CPU、Rubin GPU、NVLink 6交换机等六种芯片的Vera Rubin组合平台,旨在应对模型规模年增十倍、推理算力指数级膨胀等挑战[2] - 此举打破了公司过往“每代新平台不超过一两个芯片变动”的原则,是其从“AI芯片厂商”向打造“AI工厂”转型的重要一步[11] - 行业观点认为,单芯片性能红利已经触顶,通过全局设计提升综合算力、推出整机乃至集群级解决方案成为新的破局关键[6][11][12] 性能与成本优势 - 训练一个十万亿参数规模的大模型,所需集群规模仅为Blackwell系统的四分之一[10] - 在同等功耗和空间条件下,一座Vera Rubin数据中心的AI计算吞吐量预计可达基于Hopper架构数据中心的约100倍[10] - 未来大规模AI服务的token生成成本,预计能降到当前水平的十分之一左右[11] 技术挑战:动态精度调整 - Rubin GPU的AI推理浮点性能相较上一代Blackwell提升五倍,核心驱动力是NVFP4 Tensor Core对精度与吞吐率的自适应调度能力[16] - 但提高FP4精度的推理会挤压FP16、FP32等更高精度的计算资源,且精度下降对文生视频等精度敏感场景的推理质量影响显著,测试显示从FP16降到FP8效果已肉眼可见变差[5][18] - 尽管精度压缩被视为行业必经之路,但市场对于向FP4精度跨越仍存疑虑,其技术落地效果有待验证[17][18][19] 技术挑战:能源与散热 - Vera Rubin的功耗是Grace Blackwell的两倍,其液冷计算托盘使用45摄氏度温水冷却,预计能为全球数据中心总电力消耗节省约6%[5][24] - 但业内分析指出,该方案进出液温差小,核心元器件实际工作温度可能维持在八九十摄氏度,机柜故障率难以下降,集群的模型浮点运算利用率可能仅停留在30%-50%区间[5][22][23] - Rubin架构单机柜功耗门槛极高,需要专用变电站及大量非标电压、电线等配套设施,给供电系统带来压力[25] 行业影响与竞争格局 - 推理业务的核心是成本,不同于训练业务的核心是效率,在新的价值逻辑下,英伟达开始以“性价比”为抓手坚守推理市场份额[7][11] - Rubin的发布短期对国产芯片利空,但长期利好,因它表明竞争焦点转向多芯片系统协同与系统设计,国内已有不少芯片创业公司在积极布局类似技术路径[6][11][12] - 大模型推理对存储要求高,未来CXL存储、LPDDR等新型高速存储技术有望被部署到GPU周边以提升性能,这对国内存储厂商有利[12] - 英伟达试图通过软硬耦合绑定客户,但客户更倾向于软硬解耦方案,采购决策的负担与顾虑可能加重[12]
芯片巨头CES竞逐“千倍算力”,AI竞赛走向系统级对决
金融界· 2026-01-09 14:34
英伟达新一代AI计算平台 - 英伟达在CES 2026正式宣布其新一代AI超级计算平台Vera Rubin已进入全面投产阶段[1] - Rubin GPU的推理性能达到上一代Blackwell平台的5倍[1] - 平台采用极致协同设计,整合六款全新芯片,训练性能较Blackwell提升3.5倍,HBM4内存带宽提升2.8倍,单GPU NVLink互连带宽翻倍[2] - 平台将生成token的成本降低至上一代的约十分之一[2] - 公司展示了基于视频、机器人数据和仿真训练的NVIDIA Cosmos开放世界基础模型,并发布了可扩展GPU内存容量、实现跨节点高速共享的推理上下文记忆存储平台,性能提升高达5倍[2] - 在系统整合方面,公司介绍了用于辅助驾驶汽车开发的开放推理模型系列Alpamayo,其L4级自动驾驶平台DRIVE Hyperion已被全球领先的汽车制造商、供应商和无人驾驶出租车供应商采用[6] AMD的AI芯片路线图与目标 - AMD设定了“未来四年,实现AI性能1000倍提升”的宏伟目标[3] - 公司推出全新MI455X系列AI芯片,相较于MI355X性能提升10倍[3] - MI455X基于2/3nm工艺制程,拥有3200亿个晶体管,旗舰型号配备432GB HBM4内存[3] - 同时发布的还有开放式72卡服务器Helios,计划2026年下半年正式发布[3] - 根据官方路线图,2027年将推出MI500系列,采用2nm工艺和HBM4e内存,性能可能是MI455X的30倍[3] - 对于AI PC,公司判断“AI PC并不是云端AI的替代品,而是下一代个人计算的基础设施”[3] 内存技术HBM4的进展 - SK海力士在CES 2026首次公开展示其下一代HBM产品——16层48GB HBM4[3] - HBM4将主要面向训练GPT-5级别模型的最强大GPU和加速器[3] - 同时展出的还有最新12层HBM3E模块,速度达11.7 Gb/s[3] - 英伟达Rubin GPU已采用与当前Grace Blackwell类似的架构,由一个Vera CPU和两个Rubin 85 HBM4 GPU组成,每颗Rubin GPU拥有8个HBM4接口[3] - SK海力士展示了AI系统定制解决方案,将一些控制功能直接转移到基础内存芯片上,旨在消除处理器与存储之间的数据传输瓶颈[3] 英特尔的制程突破与产品发布 - 英特尔在CES 2026期间发布了代号为“Panther Lake”的第三代酷睿Ultra处理器,这是公司首款采用18A制程的消费级产品[4] - 旗舰型号最高配备16个CPU核心,相比上一代产品在多线程性能上实现约60%提升,同时整合了所有I/O接口,并支持高达96GB的内存[4] - 公司宣布首批搭载第三代酷睿Ultra处理器的消费级笔记本电脑将于2026年1月6日开启预售,并于1月27日起在全球范围内面市[4] - 公司CEO表示已兑现承诺,在2025年出货了采用18A工艺制造的芯片,并且是提前完成了目标[4] AI系统整合与效率竞争 - AI竞赛已从单纯的芯片算力比拼,演变为涵盖存储、互联、冷却和软件的全系统效率竞争[5] - AMD的Helios平台采用“液冷+模块化设计”,重量近7000磅(约3.2吨),相当于2辆紧凑型轿车[5] - 该系统单机架AI算力达2.9 Exaflops,配备31TB HBM4内存,扩展带宽260TB/s[5] - 系统整合能力已成为AI巨头竞争的核心要素,这从芯片算力到系统效率的转变,将重新定义AI基础设施的未来格局[6]
英伟达新一代Rubin平台 欲重构AI与世界的联结
中国经营报· 2026-01-09 10:08
公司战略与定位 - 公司CEO黄仁勋强调公司已转型为AI基础设施公司,而不仅仅是芯片供应商,其CES主题演讲超过70%的篇幅聚焦于物理AI的应用场景与商业化路径[2] - 公司角色从芯片供应商转变为“全栈AI体系”构建者,通过开源模型、数据及开发库,为全球提供构建物理AI的底座[9] - 公司通过“三台计算机”(训练、推理、模拟)的架构,以及扩展的开源模型生态,构建其在推理时代的AI基础设施叙事[8][9][10] 新一代AI计算平台:Vera Rubin - Rubin平台是公司在CES 2026上推出的最大亮点,已全面投产,是首个采用协同设计、集成6款芯片的AI平台[2][4] - 平台集成的6款芯片包括:Vera CPU、Rubin GPU、NVLink 6交换机芯片、ConnectX-9 Spectrum-X SuperNIC超级网卡芯片、BlueField-4 DPU和Spectrum-6以太网交换机芯片[4] - 平台重新设计6颗芯片的原因是摩尔定律放缓与AI需求爆炸,模型参数规模每年增长10倍,推理生成的token数量每年增长5倍,单token成本每年下降10倍[4] Rubin平台性能与技术创新 - 核心芯片Rubin GPU相比前代Blackwell实现跨代跃升:NVFP4推理性能提升至50 PFLOPS(5倍)、训练性能提升至35 PFLOPS(3.5倍)、HBM4内存带宽提升至22TB/s(2.8倍)、单GPU NVLink互连带宽翻倍至3.6TB/s[5] - 公司CEO表示Spectrum-X网络方案非常成功,可实现25%更高的吞吐量,仅10%的性能提升就价值50亿美元,公司已成为全球有史以来最大的网络公司[5] - 平台引入由BlueField-4 DPU支持的推理上下文内存存储平台,作为新型AI存储基础设施,以应对多轮对话产生的KV Cache,公司CEO称公司可能成为世界上最大的存储公司之一[6] - 分析师认为,对于使用公司全栈GPU解决方案的企业价值较大,因为能带来更优的算存网资源运营与分配[6] 平台系统设计与功耗 - Vera Rubin NVL72系统包含18个计算托盘和9个NVLink交换机托盘,计算托盘采用“无线缆、无水管、无风扇”设计,组装一个计算节点仅需5分钟,而过去需要2小时[7] - 整个系统为100%液冷,使用45°C热水,无需冷水机,但功耗是前代GB200 NVL72系统的两倍[7] 开源模型生态与影响 - 开源模型在2025年取得显著进步,下载量爆炸式增长,虽然仍落后前沿模型约6个月,但进步迅速[8] - 2025年,每4个token中就有1个由开源模型生成,公司CEO提到公司在领导开源模型生态,并多次提及DeepSeek、Kimi、Qwen等中国开源模型[2][8] - 公司扩展其开源模型生态,新增和更新了一系列模型、数据集、代码库和工具,覆盖生物医学AI、AI物理模拟、Agentic AI、物理AI、机器人和自动驾驶6大领域[8] - 公司CEO曾表示,2025年及2026年Blackwell和Rubin平台可带来的收入超过5000亿美元,并因新进展(如Anthropic将使用其平台)而应增加对该数字的期望[8] 物理AI与推理应用 - AI发展进入“物理AI”新阶段,需要AI理解物理定律并进行推理[9] - 公司推出了开源的物理AI世界基础模型Cosmos,它经过海量视频、真实驾驶与机器人数据以及3D模拟预训练,能理解世界运行规律,实现生成内容、推理、预测轨迹等功能[9] - 公司正式发布了世界首个会思考、会推理的自动驾驶AI——Alpamayo,它是面向自动驾驶领域的开源工具链,也是首个开源的视觉—语言—行动推理模型,并开源了从数据到部署的完整开发资源[9][10]
苏黄之争!AI芯片迎来巅峰战
深圳商报· 2026-01-09 02:08
英伟达新一代AI计算平台Vera Rubin发布 - 英伟达在CES 2026展前发布新一代AI计算平台Vera Rubin,该平台是首个六芯片协同设计的AI超级计算平台,整合了Vera CPU、Rubin GPU、NVLink 6交换芯片、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6以太网交换芯片等六款全新芯片 [6] - Rubin平台可将AI推理token成本降至前代Blackwell平台的十分之一(即降低90%),并将MoE模型训练GPU用量减少75% [2][6] - 该平台已进入全面生产阶段,基于该平台的产品将于2026年下半年由合作伙伴推出,微软、OpenAI等多家巨头已宣布将部署该平台 [6] 英伟达定义“物理AI”为下一阶段核心方向 - 英伟达CEO黄仁勋提出“物理AI”概念,认为AI正从理解语言、图像和声音转向学习理解物理世界的重力、摩擦、惯性、碰撞等规律 [4] - 公司通过三大技术支柱支撑“物理AI”落地,并宣布其“ChatGPT时刻”即将到来,同时发布了一系列开源“物理AI”模型 [4][5] - 在硬件层面,英伟达宣布Blackwell Ultra平台进入量产,将于2026年第二季度全面供货,单机算力提升50%,功耗降低30% [4] AMD发布多款新品与英伟达竞争 - 在英伟达发布会后仅2.5小时,AMD CEO苏姿丰发布了一系列新产品,包括面向超大规模数据中心的MI455X GPU及基于该芯片构建的Helios机柜级AI系统 [8] - MI455X在能效比和训练/推理吞吐量上相较前代MI300X实现了“飞跃式提升”,性能翻了数倍 [8] - AMD同时发布了面向企业本地化部署场景的MI440X芯片,以及面向AI PC的锐龙AI 400系列处理器和针对高阶本地推理与游戏的锐龙AI Max+芯片 [8][9] AMD与OpenAI深化合作并预告未来产品 - OpenAI联合创始人格雷格·布罗克曼亲临AMD发布会现场,宣布双方在AI基础设施领域深度合作,并透露未来将大规模部署AMD Helios系统 [8] - AMD MI455人工智能处理器目前已供应给OpenAI等企业 [8] - AMD预告了新一代芯片MI500的研发计划,称其运算性能将较前代处理器提升高达1000倍,预计于2027年正式推出 [11] 行业竞争格局与生态对决 - AI芯片市场竞争激烈,英伟达曾占据80%的市场份额,但AMD凭借MI300系列加速器正在快速扩张 [2] - 两家公司的竞争已演变为CUDA vs ROCm、单芯片vs Chiplet、GPU堆叠vs异构集成的生态对决 [12] - 专家指出,英伟达Rubin平台的量产将重构AI产业,未来大模型的训练周期可从“周”压缩到“天”,降低创业公司参与门槛,使竞争更加激烈 [6] 其他芯片巨头在CES 2026的动态 - Intel首发了基于18A制程的酷睿Ultra 300系列处理器(Panther Lake),这是其18A制程工艺的首次量产产品亮相 [13] - 第三代Intel酷睿Ultra处理器在边缘AI工作负载中展现出竞争优势,首批搭载该处理器的消费级笔记本电脑将于2026年1月27日起全球面市 [13] - 高通技术公司展示其向智能汽车、具身智能机器人和工业级边缘AI的转型,推出了骁龙数字底盘解决方案、机器人技术栈以及AI算力高达77 TOPS的跃龙Q-8750处理器 [14][15]
数据中心将迎“冷却革命”?瑞银:英伟达技术变革或重塑行业“牌局”
智通财经网· 2026-01-08 15:15
文章核心观点 - 英伟达在CES上关于下一代芯片冷却技术的表述 正在促使投资者重新评估数据中心基础设施演进过程中的潜在赢家与输家 [1] - 英伟达宣称其最新芯片可使用约43-46摄氏度的温热液体进行冷却且不影响性能 温水随后可通过依赖室外环境条件的"自然冷却"方式降温 而非高能耗的机械制冷机 [1] - 瑞银将英伟达的CES言论解读为对冷却设备制造商的渐进式革新而非颠覆性冲击 其本质是不同技术间需求的重新分配而非需求消失 [4] 技术变革与影响 - 英伟达对其即将推出的Vera Rubin平台的描述显示 部分高性能AI系统在特定气候条件下可能不再依赖传统机械制冷机运行 这将改变数据中心散热的经济性模式 [1] - 转变的核心在于热量排出方式的革新 而非完全取消冷却基础设施 [1] - 在可预见的未来 机械制冷机仍将是数据中心设计的核心组成部分 [3] - 英伟达的温液冷却概念在德克萨斯州 亚利桑那州等炎热气候地区效果大幅受限 当地室外温度可能接近或超过液体回路温度 导致自然冷却的可行性降低 [3] 潜在受益方分析 - 冷却塔和干冷器制造商整体利好 这些设备可在无压缩机的情况下实现散热 [2] - Vertiv作为潜在受益者 其DX Thermal系列产品在干冷器系统领域占据优势地位 [2] - 对摩丁制造的影响"中性偏积极" 该公司的风冷式制冷机可整合自然冷却功能 在室外条件允许时降低对压缩机的依赖 [2] 对现有设备供应商的影响 - 多数数据中心采用混合运营模式 仅部分机架专用于AI负载 而更广泛的设施仍需传统风冷系统 [3] - 大多数已安装芯片仍需要风冷或温度更低的液体冷却 这两者都依赖于水冷式机械制冷机 [3] - 对于Trane Technologies和江森自控等综合性暖通空调及工业设备企业 英伟达驱动的行业转变将带来"中性至小幅负面"影响 [4] - 江森自控的业绩改善主要源于公司自身的利润率提升计划 而非仅依靠数据中心业务 [4]