英伟达GB200 NVL72
搜索文档
超节点OEM-被低估的中国AI核心资产
2026-03-30 13:15
行业与公司 * 行业:中国人工智能(AI)算力基础设施与产业链,特别是超节点服务器、AI芯片、网络连接、算力服务等领域[1] * 公司:浪潮信息、中科曙光、华勤技术、紫光股份、工业富联、中兴通讯、海光信息、寒武纪、芯原股份、中际旭创、盛科通信、锐捷网络、华工科技、华丰科技、鼎通科技、协创数据、鸿景科技、智微智能、首都在线、金山云、优刻得、网宿科技、云赛智联、智谱 AI、MiniMax、科大讯飞等[9] 核心观点与论据 * **需求侧:中国AI推理需求潜力巨大,增长迅猛** * 2026年3月,中国日均Token调用量已达140万亿,两年内增长超千倍[1][2] * 全球模型调用量排名前十中,中国模型占据五至六席;前五中占据四席[2] * 中国市场的Token增长速度甚至超过了美国[2] * **供给侧:2026年中国AI算力供给将迎来三端爆发** * **国产AI芯片**:预计在2026年下半年至2027年,随着中芯国际和华虹的产能释放,将有非常明显的产能扩充[7] * **英伟达特供芯片**:H200特供版在2026年已获准供应,预计对中国市场的供给潜力可达数十万卡甚至百万卡量级[1][7] * **算力租赁**:市场需求极为乐观,预计2026年采购额相比2025年至少将实现两倍或以上的增长[1][7] * **技术趋势:2026年为“超节点OEM元年”,将重塑产业格局** * 继2025年英伟达GB200开启美国超节点元年后,预计2026年年中及下半年,采用国产AI芯片及互联网公司自研芯片的超节点将集中加速放量[1][2] * 超节点通过高速互联将计算单元密度提升至百级甚至千级,技术复杂性大幅提升(例如包含数十万个独立组件和数千个芯片)[3] * 技术迭代有利于头部OEM厂商提升市场份额,并驱动其毛利率和净利润水平实现台阶式跃升[1][3] * **投资逻辑:从“国产替代”转向“总量增长”** * 2025年投资核心集中于国产AI芯片(如寒武纪、海光信息),本质是半导体国产替代逻辑[4] * 2026年,受益于国产芯片供应链成熟、英伟达特供款恢复供应及算力租赁市场爆发,整个中国AI产业景气度将全面向上,投资机会扩展至全产业链[4] * 服务器、交换机等此前估值尚在低位的环节,有望迎来业绩增长和估值提升的双重驱动[1][4] * **市场潜力:中国AI市场存在巨大资本开支缺口,增长潜力大** * 2023年至2025年三年间,中国三大CSP累计资本开支约1,000亿美元,而同期北美五大CSP累计资本开支高达8,700亿美元,差距达8.7倍[1][6] * 过去累积的资本开支缺口在未来有被补齐的需求,结合Token消耗量高速增长,揭示了中国AI市场更大的增长潜力[1][6][7] 其他重要内容 * **具体产品进展**: * 英伟达在2026年的布局已从AI超节点扩展至通用服务器、交换机、LPU和存储服务器等多种架构的超节点[5] * 阿里巴巴“盘久”128卡超节点采用自研CIPO 2.0芯片和EIC MOC高性能网卡,预计2026年下半年大规模量产,年化产能有望支撑超过5,000台出货,将明显拉动ODM厂商业务[1][5] * **估值与机会**: * 算力租赁相关公司的估值目前仍在30倍以下,且其商业模式尚未被市场充分认知,可能存在超预期的机会[7] * **主要风险**: * 宏观经济波动影响下游需求;AI模型技术发展不及预期;市场竞争加剧;中美科技博弈带来的政策不确定性[8]
Meta联手AMD、英伟达HBM4、机构做空闪迪
傅里叶的猫· 2026-02-24 23:59
Meta联手AMD - Meta计划部署总功率达6吉瓦的数据中心设备,全部采用AMD处理器[2] - 根据行业估算,1吉瓦数据中心总开销约为350亿美元,6吉瓦总投入约2100亿美元[2] - 若按英伟达GB200 NVL72的物料清单成本结构估算,GPU服务器成本占比57.4%,对应约1200亿美元[2] - Meta与AMD达成为期5年的采购协议,初期采购AMD MI450芯片,预计后续将升级至超节点[3] - 作为协议一部分,Meta将分阶段获得认购1.6亿股AMD认证股权,按当前股价计算价值约330亿美元[4] - Meta此举旨在分散供应链风险,因其AI算力目标宏大,计划在2030年前建设数十至上百吉瓦算力,过去曾受英伟达供应瓶颈影响[5] - 采用多供应商策略将带来软件栈碎片化挑战,需应对Nvidia CUDA、AMD ROCm、谷歌TPU的JAX/XLA及自家MTIA框架等多平台兼容性问题[5] 海力士的HBM4 - 有消息称海力士HBM4因需修改12纳米基础芯片的光罩,大规模供货可能延迟一个季度以上[7] - 同时,英伟达下一代Rubin平台的进度目前看来正常,尚未听到延迟信息[7] 机构做空闪迪 - 研究机构Citron宣布做空闪迪[9] - 其做空观点主要基于两点:一是存储行业具有周期性,终将见顶;二是三星正进入SSD市场与闪迪竞争,当前供应紧张问题可能只是三星另一产品线暂时的良率问题所致[10] - 从行业角度看,存储已成为制约AI发展的关键环节,未来需求不仅在于解决产能短缺,更在于技术架构升级[11] - 到2030年,AI训练推理对存储带宽和容量的需求将远超当前HBM+DRAM+SSD架构,需要针对AI场景的整个存储架构升级,而不仅是单一产品迭代[11] - 未来胜出的存储厂商将是那些能与英伟达或谷歌等共同开发出下一代存储架构的公司[11]
博通打算做空英伟达
36氪· 2026-01-22 10:42
高盛报告核心观点 - 谷歌与博通合作的最新TPU v7芯片量产,其单位算力的推理成本暴降70%,这标志着ASIC专用芯片在AI推理成本上对通用GPU形成颠覆性优势,可能引发行业逻辑的根本性改变 [1][2][11] AI计算范式转变:从训练到推理 - AI行业正从“造车”(训练大模型)阶段进入“跑车接客”(模型推理)阶段,核心关注点从算力速度转向每单位计算成本 [3][4] - 高盛报告聚焦“推理成本”,TPU v7的70%成本降幅源于“系统工程能力的绝对碾压”,而非单纯的硬件性能提升 [5] - 类比说明:英伟达GPU像追求极致速度但高能耗的超跑,而谷歌TPU v7像高效运送大量乘客(处理海量Token)的高铁,在规模化任务中人均能耗(单位成本)优势显著 [6] TPU v7成本降低的技术路径 - 成本红利来自三个维度:芯片间数据传输等待时间几乎为零;封装更紧凑,计算模块与内存距离近,信号损耗少;ASIC架构专一,剔除了GPU中为通用计算保留的冗余功能,硅片利用率极高 [7][8] - TPU v7的绝对成本已与英伟达GB200 NVL72解决方案基本持平,改变了客户的选择逻辑,从“买不起英伟达的无奈妥协”转向基于性价比的主动选择 [9][10] - 对于Meta、微软等科技巨头,推理成本占运营成本大头,使用TPU有望大幅降低该成本,直接提升净利润 [10] Anthropic的210亿美元大单及其战略意义 - Anthropic签署价值210亿美元的定制芯片(ASIC)采购大单,覆盖从2025年底至2026年及以后的周期,金额相当于2024年全球一半AI初创公司的融资总额 [12][13] - 此举背后有谷歌、亚马逊等大金主支持,特别是谷歌作为二股东,资金通过博通转化为定制TPU算力 [14] - Anthropic的战略目标有三:第一,从“租房”(购买高价通用GPU)转向“买地”(自建定制ASIC算力),长远可节省大半成本 [15];第二,掌握“算力主权”,获得供应链的确定性和自主权,避免受制于英伟达的产能和分配 [16][17][18];第三,实现软硬一体极致优化,为自家Claude模型量身定制芯片,提升效率和性能 [19][20] - 这笔交易标志着大模型行业阵营分化加速,有资源和技术优势的巨头正通过定制化算力拉大与普通玩家的差距 [21] 博通的新角色与商业模式优势 - 在AI芯片新战场,博通完成了从“芯片设计公司”到“AI军火商总装厂”的身份跃迁,成为各大科技厂的“白手套”和“代工厂” [22][23] - 博通深度参与了谷歌TPU v7、亚马逊Trainium的核心技术,并承接了Anthropic的210亿美元定制订单 [23] - 其商业模式采用“NRE(定制研发费)+ 量产分成”模式,无论芯片最终成败都能先收取高额研发费,量产后再按颗抽成,收入确定性强,风险低于英伟达 [24][25] - 博通的核心技术壁垒在于先进的光互连技术和CoWoS封装能力,能够高效连接和堆叠数百个芯片而不发热、不堵车,这种“连接”技术比单纯设计GPU难度更高 [25] - 博通提供从电路设计、封装、测试到供应链管理的全套解决方案,大幅降低了科技公司自研芯片的门槛,推动了整个ASIC定制芯片市场的繁荣 [26][27] - 博通客户群分散(包括苹果、谷歌、亚马逊甚至英伟达),收入来源多元,抗风险能力强,在高盛看来,其在AI行业理性化过程中业绩确定性高于英伟达 [27] 对中国AI芯片行业的启示与机会 - 外部制裁倒逼中国AI行业加速发展ASIC专用芯片,走上与谷歌、亚马逊类似的道路 [28] - 华为昇腾及字节、腾讯、百度等公司均在推进自研芯片,逻辑与Anthropic一致,即通过定制化解决通用芯片获取难、成本高的问题 [29] - 国内AI芯片设计公司(如寒武纪、海光等)迎来黄金窗口期,只要性能达到英伟达的八成且价格减半,就可能获得大厂青睐 [29] - 中国行业现状是缺乏像博通那样掌握核心“连接”与“封装”技术的公司,在先进封装(如CoWoS、Chiplet)和光互连技术上与国际领先者存在代差 [30][31] - 投资机会明确存在于掌握“连接技术”和“封装技术”的上游企业,它们是产业链中稳定的“卖铲人”,例如光模块领域的光迅科技,先进封装领域的通富微电、长电科技 [31] - 若ASIC能将推理成本大幅降低(例如降至十分之一),将极大推动中国拥有海量数据和应用场景的行业(如短剧、游戏、电商、教育)爆发,关注点应从亏损的大模型公司转向能实现AI低成本落地的“场景玩家” [32][33] - 需警惕国内厂商一拥而上进行低价内卷导致利润微薄和技术低质化的风险,真正的机会属于拥有核心壁垒(独家模型算法、芯片架构或封装技术)的公司 [33]
马斯克最大算力中心建成了:全球首个GW级超算集群,再创世界纪录
量子位· 2026-01-18 13:29
全球首个GW级超算集群Colossus 2投入运行 - 全球首个功率达到1GW的超算集群Colossus 2已正式投入运行,并计划于2024年4月升级至1.5GW,最终总装机容量目标为2GW [1][2][12] - 该集群由xAI公司独立建设,不依赖亚马逊、微软等科技巨头,从无到有的建设速度极快,前代集群Colossus 1仅用122天建成,Colossus 2的建设耗时不到一年 [6][7][8][10] - 集群配备约20万颗英伟达H100/H200 GPU和约3万颗英伟达GB200 NVL72,规划彻底完工后将内置55.5万张GPU,远超Meta的15万张、微软的10万张以及谷歌的分布式基础设施 [9][13] Colossus 2的规模与影响 - 1GW的功率可为约75万户家庭供电,相当于高峰时期的旧金山,与一座核电站的功率相当,2GW的最终容量将与美国大多数主要城市的用电量相当 [11][12] - 该集群庞大的计算资源将全部用于训练xAI的下一代大模型Grok 5,预计其参数将达到约6万亿,是Grok 4的两倍以上 [14][15] - 随着xAI完成200亿美元的E轮融资,Grok 5的研发筹码增加,意味着更大的模型参数、更快的训练与迭代速度,xAI在算力基础设施上已领先于为2027年发愁的OpenAI [18][19] AI算力竞赛对电网的冲击 - 数据中心建设热潮正导致电力需求激增,美国非营利电网运营商PJM预计未来10年电力需求将以年均4.8%的速度增长,这对一个需求多年变化不大的系统而言相当罕见 [27][28] - 电力供给增速缓慢,新建电厂速度跟不上老电厂退役速度,电网容量面临饱和,供需偏差可能导致电网频率波动并损坏关键基础设施 [29][30] - 为避免风险,PJM可能在极端天气期间对覆盖区域内(美国13个州)的6700万居民实施轮流停电,作为维持电网平衡的卸压手段 [5][22][23][31] 行业应对与xAI的缓解措施 - PJM曾提议数据中心在高峰时段主动降低用电量或改从其他渠道获取电力,但遭到亚马逊、谷歌、微软等公司的反对,认为这是对数据中心的歧视 [33][34] - xAI的Colossus 2位于美国中南部,不在PJM电网覆盖范围内,并且公司部署了168个特斯拉Megapack电池储能系统,旨在用电高峰期提供电力缓冲,以尽量减少对当地电网的冲击和周边居民遭遇停电的风险 [35]
最新英伟达经济学:每美元性能是AMD的15倍,“买越多省越多”是真的
量子位· 2026-01-01 12:15
文章核心观点 - 英伟达在AI推理,尤其是前沿MoE模型场景下,凭借其从芯片、互联到软件的端到端平台设计,实现了远超竞争对手的性价比优势,其平台每美元性能可达AMD的15倍,生成同等数量token的成本仅为AMD的十五分之一[1][4][30][40] AI推理性能对比:英伟达 vs. AMD - 根据Signal65基于2025年10月至12月基准测试的报告,在特定条件下生成同样数量的token,英伟达的成本只有AMD的十五分之一[4] - 在密集模型Llama 3.3 70B上,英伟达B200性能约为AMD MI355X的1.8倍(基线交互性30 tokens/sec/user),当交互性要求提升至110 tokens/sec/user时,差距扩大到6倍以上[17] - 在中等规模MoE模型GPT-OSS-120B上,100 tokens/sec/user交互性下,B200性能接近MI355X的3倍;在250 tokens/sec/user条件下,差距扩大到6.6倍[19][20] - 在前沿MoE推理模型DeepSeek-R1上,性能差距最为显著:在25 tokens/sec/user下,GB200 NVL72每GPU性能是MI325X的16倍;在75 tokens/sec/user下,GB200 NVL72性能是MI355X的28倍[24] - GB200 NVL72在28卡配置下可输出超过275 tokens/sec/user,而MI355X在相当吞吐水平下的峰值仅为75 tokens/sec/user[26] MoE架构趋势与扩展挑战 - AI模型架构正经历革命,智能度排名前十的开源模型均为MoE推理模型[7] - MoE架构将模型参数拆分为多个专家子网络,每个token仅激活其中一小部分,例如DeepSeek-R1拥有6710亿总参数,但每个token仅激活370亿参数,能以更低计算成本提供前沿智能[10][11] - 当专家分布在多块GPU上时,GPU间通信延迟会导致计算单元空闲,增加成本,所有8卡系统在超出单节点规模后都会遭遇“扩展天花板”[13][14] - 英伟达GB200 NVL72通过NVLink将72块GPU连接成单一域,提供130 TB/s互联带宽,配合Dynamo推理框架,有效突破8卡系统的通信瓶颈[15] 成本效益分析:性能与定价 - 根据Oracle Cloud公开定价,GB200 NVL72每GPU每小时价格为16美元,MI355X为8.60美元,前者是后者的1.86倍[27] - 根据CoreWeave定价,GB200 NVL72相比上一代H200的价格贵了约1.67倍[28] - 在25 tokens/sec/user交互性下,GB200 NVL72性能优势为5.85倍,除以1.86倍价格溢价,每美元性能是MI355X的3.1倍,生成token的相对成本为三分之一[29] - 在75 tokens/sec/user交互性下,28倍的性能优势除以1.86倍的价格,每美元性能达到MI355X的15倍,生成同等数量token的成本仅为AMD的十五分之一[30] - 在DeepSeek-R1典型工作负载下,GB200 NVL72相比H200性能提升约20倍,价格仅上涨1.67倍,每美元性能提升约12倍,单token成本降至H200的十二分之一[32][35] 行业竞争格局与未来展望 - 在密集模型和容量驱动场景下,AMD的MI325X和MI355X仍有其用武之地[38] - AMD的机柜级解决方案Helios正在开发中,可能在未来12个月内缩小与英伟达的差距[39] - 对于当前的前沿推理模型而言,从芯片到互联到软件的端到端平台设计已成为成本效益的决定性因素[40] - 行业价值的衡量标准正从单纯算力转向“每美元能产出多少智能”[37]
华安证券:AI技术转向推理 驱动硬件产业链迎来新一轮成长周期
智通财经· 2025-12-17 11:37
核心观点 - 全球AI技术正从训练主导转向推理主导 驱动硬件产业链迎来新一轮成长机遇 多模态大模型迭代与AIAgent规模化落地显著提升推理算力需求 [2] - 云服务商资本开支上调与各国主权AI计划共同推动全球AI基础设施高景气建设 带动服务器、存储、光互连等云侧硬件价值提升与技术创新 [1][2] - AI手机与AR眼镜等端侧设备加速智能化演进 正在重塑产业格局 [1][5] 总量趋势 - 预计2025年全球八大云服务提供商资本开支将达4310亿美元 同比增长65% 2026年有望进一步增至6020亿美元 [2] - 各国主权AI计划启动 例如美国“星际之门”计划投资约5000亿美元 欧盟拟投入215亿美元建设AI超级工厂 [2] - 预计到2030年 全球AI数据中心容量将达156GW 占数据中心总需求的71% [2] 云侧硬件产业链 PCB - AI服务器带来明确的价值量提升 例如英伟达DGX H100单GPU对应PCB价值量达211美元 较前代提升21% GB200 NVL72将单GPU价值量推高至346美元 [3] - 随着Rubin架构采用无缆化设计及交换机向800G/1.6T演进 PCB正朝着高层数、使用如M9等低介电材料的更高性能方向升级 [3] - 2026年国内高端PCB产能将迎来集中释放 以支撑下游需求 [3] - 上游材料同步升级迭代 包括M9级别中碳氢树脂比例提升、第三代石英玻纤布引入、以及HVLP4铜箔使用 国产材料厂商正在各环节加速实现替代与突破 [3] 存储 - 2025年因AI需求导致的结构性供需失衡 已推动DRAM与NAND Flash价格显著上涨 [3] - 预计2026年行业资本开支增速放缓 投资重心转向高附加值产品 [3] - 3D DRAM技术通过TSV与4F2垂直结构为国内厂商提供了绕开先进光刻限制的机遇 [3] - 服务于大模型推理优化的KV Cache技术 正推动QLC SSD加速替代HDD 预计其2026年在企业级SSD市场的渗透率将达到30% [3] 光互连 - 光互连技术作为AI算力集群的关键 正步入新时代 光交换机凭借高带宽、低时延、低功耗特性 适配大规模AI集群互联需求 [4] - 以MEMS为主的技术路线已占据主导 产业链条长且壁垒高 [4] - 从上游核心器件到中游设备集成与解决方案 国内已有厂商在各个环节积极布局并切入全球供应链 [4] 端侧设备产业链 AI手机 - 2025年AI手机市场整体保持温和增长 竞争焦点转向端侧AI能力 [5] - 手机操作系统正从“应用启动器”向“系统级智能体”演进 以豆包手机为代表的创新产品尝试实现底层AI融合与跨应用操作 [5] - 苹果与安卓阵营的旗舰芯片持续提升NPU算力 共同推动端侧AI的普及与体验升级 [5] AR眼镜 - AI与AR融合的智能眼镜被视为可穿戴设备的未来形态 市场正处于高速增长期 产品形态从无摄像头眼镜持续演进至具备完整显示功能的AR眼镜 [5] - 光波导因其在清晰度与体积上的优势 有望成为AR眼镜光学成像模组方案的主流选择 [5] - 光机方案呈现多元化趋势 LCOS是目前消费级产品的主流 MicroLED凭借其性能优势被公认为未来的发展方向 [5] 建议关注细分领域及标的 - PCB及上游材料:胜宏科技、沪电股份、景旺电子、广合科技、东材科技 [5] - 存储及设备:北京君正、兆易创新、聚辰股份、精智达 [5] - 光互连:英唐智控、赛微电子 [5] - 端侧AI:歌尔股份、立讯精密 佰维存储 龙旗科技、水晶光电、中科蓝讯、豪威集团、舜宇光学科技 [5]
AI推理工厂利润惊人!英伟达华为领跑,AMD意外亏损
搜狐财经· 2025-08-16 20:13
AI推理业务盈利能力分析 - AI推理业务展现出惊人的盈利能力,标准"AI推理工厂"的平均利润率普遍超过50% [1] - 英伟达GB200芯片以接近78%的利润率领先市场,谷歌和华为芯片同样表现优异 [1] - AMD的AI平台在推理场景下出现严重亏损,与市场预期形成强烈反差 [1] 主要厂商表现对比 - 英伟达GB200 NVL72凭借计算性能、内存网络能力和FP4精度创新,利润率高达77.6% [3] - 谷歌TPU v6e pod以74.9%的利润率紧随其后,显示云厂商软硬件协同优化的优势 [5] - AWS Trn2 UltraServer和华为昇腾CloudMatrix 384平台也取得可观利润率 [5] - AMD MI300X和MI355X平台利润率分别为-28.2%和-64.0%,成本与产出效率失衡是主因 [5] 分析框架与方法论 - 摩根士丹利首创"100MW AI工厂模型",以电力消耗为基准核算总拥有成本 [7] - 模型包含基建成本、硬件成本和运营成本,以token产出为收入衡量标准 [7] - 参考主流API定价确保评估准确性,为行业提供标准化分析工具 [7] 未来竞争格局 - 非英伟达阵营围绕"连接标准"展开竞争,AMD推动UAlink而博通主张以太网方案 [8] - 英伟达下一代平台"Rubin"预计2026年Q2量产,将进一步巩固市场领先地位 [8] - AI推理市场已从技术竞赛转向可量化商业回报的成熟产业 [8]
液冷 还能说啥?
小熊跑的快· 2025-08-15 12:08
液冷技术趋势 - 英伟达GB200 NVL72采用冷板式液冷 液冷服务器比风冷版性能高25% 功耗降低30% [1] - TPU芯片液冷比例将大幅上升 预计超过65% 因v7单卡算力达4614tflops 较v6的1836tflops提升2.5倍 单芯片内存提升4.5倍 [1] - 微软宣布所有Azure区域数据中心均支持液冷技术 提升设备灵活性和可替代性 [3] 芯片与服务器市场动态 - 英伟达2024年预计出货近3万台GB200 近1万台GB300 以及超200万张B200单卡 [5] - 2025年GB300出货预期上调至10万台 机柜将全部采用液冷方案 并可能引入国产供应链以降低成本 [5] - MI355X液冷方案可扩展至128卡(2U-5U机架) 而MI350仅支持64卡扩展 [5] 行业资本开支与产能 - 微软过去12个月新增数据中心容量超2吉瓦 行业正朝吉瓦级和多吉瓦级数据中心发展 [4] - 液冷设备在机柜中的价值量已超过电源 成为除芯片外的第一梯队组件 [6] 供应链变化 - 国产液冷设备厂商自2023年7月开始进入国际供应链 部分企业已获得实质性订单 [6] - TPU芯片因单价仅为B200的1/4 可能优先选择性价比更高的国产液冷解决方案 [1]
半导体设备ETF(159516)涨超1.5%,行业技术突破或将催动发展
每日经济新闻· 2025-08-13 10:55
AI算力集群技术进展 - 2025年推出的AI算力集群解决方案Cloud Matrix 384采用全互连拓扑架构实现高效协同 [1] - Atlas 900 A3 SuperPoD具备超大带宽392GB/s、超低延迟不足1微秒和超强性能300PFLOPs [1] - Atlas 900 A3 SuperPoD使LLaMA3等模型训练性能较传统集群提升2.5倍以上 [1] - 相比英伟达GB200 NVL72,昇腾910C在系统层级的BF16算力300PFLOPS、HBM容量49.2TB及带宽1229TB/s处于领先 [1] 半导体设备ETF概况 - 半导体设备ETF(159516)跟踪半导体材料设备指数(931743) [1] - 半导体材料设备指数聚焦于半导体产业链中的材料与设备领域 [1] - 指数涵盖涉及半导体制造、加工及测试等环节的上市公司证券 [1] - 指数成分股主要为在半导体材料和设备方面具备显著技术优势与核心竞争力的企业 [1] 相关投资产品 - 没有股票账户的投资者可关注国泰中证半导体材料设备主题ETF发起联接A(019632) [1] - 没有股票账户的投资者可关注国泰中证半导体材料设备主题ETF发起联接C(019633) [1]
亚马逊(AMZN.US)开发专用冷却设备 应对AI时代GPU高能耗挑战
智通财经· 2025-07-10 14:41
云计算与AI硬件创新 - 亚马逊云计算部门开发了专门用于冷却下一代英伟达GPU的硬件设备"列间换热器"(IRHX),以解决高功耗AI芯片的散热问题[1] - 英伟达GPU是生成式AI爆发的核心硬件,但能耗极高,传统空气冷却方式无法满足需求[1] - 亚马逊曾考虑建设液冷数据中心,但因部署周期长、空间占用大、水资源消耗高而放弃[1] 技术解决方案与产品落地 - 新冷却设备IRHX可兼容现有及新建数据中心,通过P6e计算实例向客户提供服务[2] - 该方案适配英伟达GB200 NVL72高密度计算硬件,单机架集成72颗Blackwell GPU以训练大型AI模型[2] 自主研发战略与财务表现 - 亚马逊持续开发定制芯片、存储服务器和网络路由器等基础设施硬件,减少对第三方供应商依赖[2] - AWS第一季度运营利润率创2014年以来最佳,成为公司主要净利润来源[2]