RTX Pro 6000

搜索文档
研报 | 3Q25新旧世代DRAM交替,合约价走势分化,Consumer DDR4将季增逾40%
TrendForce集邦· 2025-07-07 16:24
July 7, 2025 产业洞察 根 据 TrendForce 集 邦 咨 询 最 新 调 查 , 由 于 三 大 DRAM 原 厂 将 产 能 转 向 高 阶 产 品 , 并 陆 续 宣 布 PC/Server用DDR4以及Mobile用LPDDR4X进入产品生命周期末期(EOL),引发市场对旧世代产品积 极备货,叠加传统旺季备货动能,将推升 2025年第三季一般型DRAM(Conventional DRAM)价格季 增10%至15%,若纳入HBM,整体DRAM涨幅将季增15%至20% 。 | | 2Q25 | 3Q25E | | --- | --- | --- | | PC DRAM | DDR4: up 13~18% | DDR4: up 38~43% | | | DDR5: up 3~8% | DDR5: up 30% | | | Blended: up 30% | Blended: up 8013% | | Server DRAM | DDR4: up 18~23% | DDR4: up 28~33% | | | DDR5: up 3~8% | DDR5: up 30% | | | Blended ...
深挖英伟达Blackwell
半导体行业观察· 2025-06-30 09:52
Nvidia Blackwell架构核心特点 - 采用750平方毫米巨型芯片设计,集成922亿个晶体管,拥有192个流多处理器(SM) [1] - GB202芯片的SM与GPC比例为1:16,相比前代Ada Lovelace的1:12比例可更低成本增加SM数量 [5] - 取消了子通道切换机制,允许在同一队列中混合不同类型工作负载,提高着色器阵列填充效率 [8] - 采用128位固定长度指令和两级指令缓存设计,L1指令缓存容量提升至约128KB [7][10] - 每个SM分区可跟踪12个波段,寄存器文件容量保持64KB/分区不变 [16] 性能参数对比 - RTX PRO 6000 Blackwell配置188个SM,96GB GDDR7显存,理论带宽1.8TB/s,功耗600W [2] - 相比RTX 5090(170个SM)和AMD RX 9070(28个WGP),在核心数量和显存带宽上具有明显优势 [2][21] - FP32执行流水线重组为32位宽设计,可同时处理INT32和FP32操作避免卡顿 [18] - 每个SM分区每周期可执行16次INT32乘法,是AMD RDNA4的两倍 [18] - 光线追踪性能提升,每个SM的光线三角形相交测试速率提高一倍 [23] 内存子系统 - 采用128KB SM级存储块设计,可在L1缓存和共享内存间灵活分配 [25] - L2缓存延迟130ns,带宽8.7TB/s,相比前代Ada Lovelace有所增加 [49][53] - 显存延迟329ns,L2命中延迟约200ns,略逊于AMD RDNA4的254ns [52] - 总计拥有24MB L1/共享内存容量,是AMD RX 9070(6MB)的四倍 [35] - 地址生成效率优于AMD,单条指令即可完成数组索引转换 [37] 行业竞争格局 - 在高端消费市场缺乏直接竞争对手,AMD RDNA4和Intel Battlemage定位中端 [61] - RTX PRO 6000的FP32吞吐量接近AMD MI300X数据中心GPU [62] - 采用"大核心+高带宽"双重策略,同时增加SM数量和显存带宽 [62] - 芯片面积和功耗达到消费级GPU极限(750mm²/600W) [62] - 尽管面临L2性能等挑战,但凭借规模优势保持市场领先地位 [63][64]
慧与科技(HPE.US)紧抱英伟达(NVDA.US)大腿 在Discover大会重磅发布AI服务器新品
智通财经网· 2025-06-25 10:03
产品发布 - 公司发布新一代ProLiant Compute Gen12服务器,搭载NVIDIA RTX PRO 6000 Blackwell GPU [1] - 推出全新HPE Compute XD690高性能AI服务器,配备8个NVIDIA Blackwell Ultra GPU模块 [1] - 发布HPE Alletra Storage MP X10000高性能AI存储系统 [2] - 推出HPE OpsRamp Software人工智能算力平台,与NVIDIA Enterprise AI Factory服务配合使用 [2] 合作伙伴关系 - 公司与英伟达深化长期AI算力合作伙伴关系,共同打造"全栈AI工厂基础设施" [1][4] - 通过26家全新Unleash AI合作伙伴,加速实现AI价值创造 [2] - 与Veeam达成协议,帮助数据迁移和强化可移植性 [3] - 与CommVault扩大合作,抵御网络威胁并防止数据丢失 [3] 战略方向 - 公司从传统服务器商转型为"混合云计算订阅平台 + AI基础设施"提供者 [5] - 借助GreenLake混合云订阅模式与Cray超算技术,主攻"全栈AI工厂"解决方案 [4] - 公司CEO强调生成式AI、AI智能体及物理AI的潜力,认为构建正确的IT基石至关重要 [2] 市场表现 - 公司HPC & AI业务2023财年营收同比增长25% [5] - AI-高性能优化服务器在2024财年第四季创下单季9亿美元销售额纪录 [6] - 华尔街预计到2026财年该业务板块规模可望逼近60亿美元 [6] 行业竞争 - 公司与超微电脑、戴尔科技在AI服务器领域构成直接竞争关系 [4] - 三大AI服务器领军者均深度强化与英伟达合作,争夺优先获得新品AI GPU供给 [4]
泡泡玛特疑进军家电行业,正招聘相关人才;雷军否认YU7是拉高版SU7,90%零部件重新开发;马云现身饿了么工区,吴泳铭陪同
雷峰网· 2025-06-25 08:29
小米汽车YU7发布 - 小米YU7与SU7共享Modena平台但90%零部件重新开发 驾驶风格更偏舒适[4] - YU7用户留资量达SU7同期3倍 雷军预计两款车型将同样火爆[4] - 多家新势力车企创始人互动祝贺 同时借机宣传自家新车[4] 泡泡玛特业务拓展 - 招聘家电领域人才 薪资范围12000-45000元 项目评级为A+级大投入[7] - 已布局独立珠宝品牌popop及影视业务 LABUBU成为首个拥有个人影视作品的IP[7] 阿里即时零售布局 - 马云现身饿了么工区 传递对即时零售战略重视[9][10] - 饿了么、飞猪并入阿里中国电商事业群 将强化资源协同[10] - 京东外卖骑手规模突破12万 一线城市人均收入近13000元[28] 苹果促销政策 - 官网首次支持国家补贴 北京线上/上海线下专属 最高优惠2000元[12][13] - iPhone/iPad立减15% Mac立减20% 单件补贴上限分别为500/2000元[13] 腾讯高管变动 - 王慧星晋升腾讯副总裁 分管多个云产品部门 直接向汤道生汇报[14] - 腾讯云核心产品TDSQL、TRTC等由其主导开发[14] 新能源汽车动态 - 蔚来萤火虫推BaaS服务 车价直降4万元 月租399元起[24] - 小鹏首款增程车型G01曝光 续航1400公里 预计Q4量产[25] - 哪吒汽车泰国产量仅达标21% 或需退还4.38亿元补贴[18] 科技行业动向 - 英伟达CEO黄仁勋启动减持计划 年内拟套现8.65亿美元[32] - 西门子CTO表示明年1/3 IT预算将投入DeepSeek[37] - 嘉楠科技终止边缘计算AI芯片业务 年收入仅90万美元[22][23] 人工智能应用 - DeepSeek获1569万元医院AI订单 打造智慧医疗系统[27] - 饿了么骑手AI助手"小饿"日均服务量突破2000万次[28][29] 国际科技新闻 - 特斯拉拒绝公开Robotaxi安全数据 称涉及商业机密[31] - 欧盟要求苹果App Store整改 否则面临全球日收入5%罚款[36] - 谷歌Chrome将停止支持安卓8/9系统 8月5日起生效[38]
外国小哥徒手改装消费级5090,一举击败巨无霸RTX Pro 6000
机器之心· 2025-06-24 14:46
机器之心报道 机器之心编辑部 一块经过 shunt mod 改装的华硕 ROG Astral LC RTX 5090 的性能,超越了售价 10,000 美元的 RTX Pro 6000。 「Shunt Mod」 是一种硬件级别的、具有高风险性的电路改装方法,主要用于绕过电子设备(特别是高性能显卡和主板)内置的功耗(功 率)和电流限制。 这项惊人的成果来自硬件改装大师 Der8auer(本名 Roman Hartung)。 一种提高硬件功率限制的改装 前面我们已经谈到,Der8auer 使用了 Shunt mod 分流改装。但其并不是万能的,可能对 GPU 的寿命造成危险。如果操作不当,你高价买的 GPU 可能会慢慢降级, 或者非常快速地损坏。 除了对 PCB 改装本身的担忧外,Der8auer 表示 16 针电源连接器在达到 800W 时所承受的应变可能会变得更高,从而更加危险。 那什么是理想的 Shunt mod 呢? Der8auer 解释道,他特意等了一段时间,从而获得一款配备高效一体式液冷(AiO)的显卡后才进行这次分流器改装实验,因为液冷方案能更好地应对更高的功 耗。根据他的测试,华硕 ROG As ...
研报 | 英伟达RTX PRO 6000特规版出货受市场关注,但存储器供应紧张成变数
TrendForce集邦· 2025-06-24 12:03
NVIDIA RTX PRO 6000系列产品分析 - 市场对NVIDIA RTX PRO 6000系列产品需求预期较高 但受限于存储器供应紧张等因素 出货量存在不确定性 [1] - RTX PRO 6000特规版预计2025年下半年推出 采用多元化存储器供应商策略:HBM主要依赖SK hynix LPDDR以Micron为主 GDDR由Samsung独家供应 [1] - RTX PRO 6000将采用96GB GDDR7 定位中低端GPU市场 聚焦AI推理 边缘端深度学习训练及影像模拟等应用 [2] 存储器供应链现状 - HBM领域SK hynix为主要供应商 预计2025年Micron供应占比将达30% [2] - LPDDR5x目前由Micron主导供应NVIDIA Grace主板 2026年Micron或成为SOCAMM独家供应商 [2] - GDDR7由Samsung独家供应 导致供应链持续吃紧 可能影响RTX PRO 6000生产与供货能力 [2] 产品应用与市场推广 - NVIDIA在COMPUTEX展会上联合ODM/OEM厂商推广搭载RTX PRO 6000的MGX AI Server 采用PCIe Gen5接口 瞄准企业边缘AI应用场景 [3] - MGX模块化参考设计未来将延伸至特定市场供应 [3] 行业研究背景 - 研究机构覆盖存储器 AI服务器 半导体 晶圆代工等高科技领域 提供产业分析与前瞻性报告 [12]
摩根士丹利:全球背景下的中国人工智能半导体发展
摩根· 2025-06-19 17:47
报告行业投资评级 - 行业评级为In-Line,即分析师预计该行业未来12 - 18个月的表现与相关广泛市场基准一致 [5][231] 报告的核心观点 - 随着AI重塑日常生活,半导体行业面临前所未有的需求和地缘政治紧张局势,报告对全球AI半导体市场进行概述,包括供应链关键动态和中国AI本地化加速推进情况 [1][3] - 全球AI需求持续增长,AI半导体是主要增长驱动力,预计2030年全球半导体行业市场规模可能达到1万亿美元,2025年云AI半导体总潜在市场规模可能增长至2350亿美元 [59][61] - 中国AI半导体市场发展迅速,预计2027年云AI总潜在市场规模将达480亿美元,本地GPU届时几乎能满足中国AI需求,2027年本地GPU收入有望增长至2870亿元人民币 [18][19][21] - 不同类型AI半导体增长情况各异,2023 - 2030年,边缘AI半导体复合年增长率为22%,推理AI半导体为55%,定制AI半导体为39% [77] 根据相关目录分别进行总结 中国AI半导体供需情况 - 预计中国前6大公司2025年资本支出同比增长62%,达到3730亿元人民币 [10] - 2024年中国GPU自给率为34%,预计到2027年将达到82% [16] - 2027年中国云AI总潜在市场规模预计达480亿美元,本地GPU届时几乎能满足中国AI需求 [18][19] - 受中芯国际领先节点产能推动,预计2027年本地GPU收入将增长至2870亿元人民币 [21] 中国半导体设备进口情况 - 2025年3月,中国半导体设备进口同比下降2%(3个月移动平均),多数主要国家的半导体设备进口量均有所下降 [23][25] 中国EDA市场情况 - 预计2023 - 2030年中国EDA市场收入复合年增长率为12%,到2030年将达到33亿美元 [29] - 预计到2030年,中国整体EDA自给率将提高到29% [32] 全球AI需求情况 - GPT计算需求呈指数级增长,从感知AI向物理AI发展,存在相应的扩展定律 [45][47] - 中国云资本支出呈上升趋势,2025 - 2026年主要云服务提供商的云资本支出预计近7890亿美元,英伟达CEO预计2028年全球云资本支出将达到1万亿美元 [50][53][55] - 预计2030年全球半导体行业市场规模可能达到1万亿美元,2025年云AI半导体总潜在市场规模可能增长至2350亿美元,AI半导体是主要增长驱动力 [59][61] AI半导体供应领先指标情况 - CoWoS是主流先进封装解决方案,台积电可能在2026年将CoWoS产能扩大到9万片/月 [80][83] - 2025年AI计算晶圆消费可能高达150亿美元,英伟达占大部分 [90] - 2025年HBM消费预计高达180亿Gb,英伟达消耗大部分HBM供应 [94][96] AI服务器组装主要公司情况 - 涉及英伟达AI服务器供应链、GB200相关产品及机架系统组装等内容 [101][103] AI ASIC 2.0情况 - 尽管英伟达提供强大的AI GPU,但云服务提供商仍需要定制芯片,如AWS Trainium3就是最新例证 [115] - 对多家公司的ASIC战略和效益进行分析,包括微软、谷歌、AWS、特斯拉和Meta等,总拥有成本分析显示ASIC与GPU相比仍具竞争力 [120][121] 新技术趋势 - CPO情况 - CPO解决方案可提高数据传输速度、降低功耗,是最节能的解决方案,台积电的节点扩展能实现更高晶体管密度和更低功耗 [134][136][140] - 预计AI半导体将占台积电2027年预计收入的约34% [146] 边缘AI情况 - 包括AI PC、AI眼镜、AI智能手机等应用,苹果智能可能成为杀手级应用,推动iPhone 16升级 [150][151][153] - 中国智能手机原始设备制造商已开发自己的大语言模型,联发科Dimensity 9400提升NPU性能并展示生成式AI应用 [156][161][163] - 预计2026年起AI + AR眼镜用LCOS总潜在市场规模将逐步扩大,本地AI计算可能成为关键市场趋势,预计2028年AI PC渗透率将达到95% [167][171][184] 更广泛的半导体周期情况 - 2025年上半年逻辑半导体代工厂利用率为70 - 80%,尚未完全恢复,除英伟达AI GPU收入外,2024年非AI半导体增长缓慢,仅为10% [193][194] - 成熟节点代工厂利用率和盈利能力仍面临挑战,特种DRAM价格DDR4正在反弹 [198][200][204]
ZJK Industrial Co., Ltd. Ramps Up Production to Support Nvidia’s B40 Project, Expecting Significant YoY Revenue Growth
Globenewswire· 2025-06-05 20:00
Shenzhen, China, June 05, 2025 (GLOBE NEWSWIRE) -- ZJK Industrial Co., Ltd. (NASDAQ: ZJK) (“ZJK Industrial”, “ZJK” or the “Company”), a high-tech precision parts and hardware manufacturer for artificial intelligence (AI) infrastructure, consumer electronics, electric vehicles, aerospace and other smart technologies, today announced that it is ramping up production to meet growing demand from Nvidia’s B40 project. Nvidia is advancing the development of a customized AI accelerator, the B40 chip, specifically ...
摩根士丹利:上调GB200 NVL72产能+B30 中国版 GPU+ AI 资本支出更新!
摩根· 2025-06-04 09:53
报告行业投资评级 行业评级为In-Line,即分析师预计该行业覆盖范围在未来12 - 18个月的表现将与相关广泛市场基准保持一致 [6] 报告的核心观点 NVL72服务器机架产能提升缓解全球AI供应链压力,但“每周1000台”目标待实现,AI GPU对华出货情况值得关注;预计2026年全球AI资本支出增长超30%,云AI半导体同比增长31%;看好NVIDIA、TSMC、Gigabyte等公司 [1][6][9] 根据相关目录分别进行总结 NVL72服务器机架情况 - 此前假设2025年NVL72服务器机架为30000台,Computex后分析师将预期提升至25000 - 30000台 [2][6] - NVIDIA称“多个客户每周采购1000台机架”,或含HGX机架,后续机架数量有望上调 [2][6] - 关注台湾月度销售及NVL72服务器机架出货量,每月3000 - 3500台是每季度超10000台的关键一步 [3] TSMC相关情况 - 对2025年390000片CoWoS - L(用于Blackwell芯片)的预测更有信心,高于台湾供应链传闻的340000片 [2][6][14] - 预计TSMC在7月前无2026年CoWoS消费的具体预测,维持2026年90000片的预测,低于市场的115000片 [4][15] AI硬件供需情况 - 2025年全球云服务提供商总资本支出3980亿美元的50%可衡量AI服务器潜在市场规模,约1990亿美元 [9] - 假设主要云服务提供商AI服务器占比从2025年的50%提升至2026年的65%,2026年全球AI资本支出增长或超30% [9] - Blackwell产品周期前几个季度芯片产出超NVL72服务器机架组装量,或产生芯片库存,2026年上半年有望消化库存 [12][13] NVIDIA新产品情况 - RTX PRO 6000 GPU服务器或成中国市场新需求增长点,可满足美国企业和中国推理需求 [16] - 此前预计B30(或RTX PRO 6000)销量50万台,需求持续增长,AMD或推游戏图形GPU替代MI308对华出货 [17] AWS ASIC项目情况 - AWS Trainium 2:上游预计100万台,下游预计超150万台,2026年T2产量或下降,T3产量达50万台 [26] - AWS Trainium 3:Marvell对其有信心,但启动时间存争议;看好Alchip 3nm项目,预计2026年用30000片CoWoS生产50万台Trainium3芯片,营收15亿美元 [26] - AWS Trainium 4:亚洲团队认为Alchip很可能赢得2nm项目,AWS或在2025年第三季度做出早期决策 [26] CoWoS分配情况 - 2023 - 2026年,NVIDIA、Broadcom、AMD等公司CoWoS需求呈增长趋势,2026年总需求达857000片 [29] - 各公司CoWoS需求同比增长情况不同,2026年总需求同比增长31% [30] - 2022 - 2026年,TSMC和非TSMC的CoWoS供应产能均有扩张 [32] 全球AI资本支出情况 - 预计2025年美国前四大超大规模云计算公司运营现金流达5500亿美元,有能力持续投资AI数据中心 [47] - 数据中心折旧占总费用比例从2012年的3 - 7%升至2023年的5 - 10%,预计2025年升至10 - 14% [48] - 2025年平均AI资本支出/息税折旧摊销前利润约为50%,超大规模云计算公司仍有支出能力 [48] - 亚马逊2025年第一季度财报发布后,云资本支出追踪器预计2025年同比增长40%,高于此前的31% [58] AI GPU和ASIC租赁价格情况 - NVIDIA 4090和5090显卡零售价略有下降,但中国AI推理需求仍强劲 [63] AI半导体相关情况 - AI半导体市盈率倍数呈波动趋势,不同类型公司表现有差异 [72] - 大中华区AI半导体营收持续增长 [73] - AI芯片占TSMC营收比例从2024年的中个位数升至2025年的25% [79] 相关报告情况 - 提供多份AI供应链相关报告,涉及订单、需求、供应、预测等方面 [84][85][86] 公司评级情况 - 报告对多家公司给出评级,如ACM Research Inc、Alchip Technologies Ltd等为Overweight,Advanced Wireless Semiconductor Co等为Equal - weight [138][140]
亚洲科技:2025 Computex关键要点
2025-05-28 23:16
纪要涉及的行业和公司 - **行业**:科技、电信、数据中心、人工智能、半导体、服务器、汽车等行业 - **公司**:NVDA(英伟达)、Hon Hai(鸿海)、ASPEED、AVC(3017.TW)、Vertiv、Delta、Lite - On Tech、MediaTek(联发科)、TSMC(台积电)、ASE Technology Holding Co Ltd(3711.TW)、ASMPT Ltd(0522.HK)、Alchip Technologies(3661.TW)等众多公司 [19] 纪要提到的核心观点和论据 数据中心AI需求与供应情况 - **需求趋势强劲且具长期增长可见性**:NVDA对数据中心AI需求的可持续性充满信心,AI工厂建设才刚刚开始,主权AI、CSP和独立AI实验室都在投入资本建设AI工厂,预计将持续多年;NVDA CEO预计未来3 - 5年物理AI/机器人将达到拐点,推动GPU计算需求上升;特朗普政府关于AI扩散规则的新方向将使未来几个季度需求估计上升 [5] - **供应瓶颈短期存在但下半年机架生产将强劲增长**:GB200 NVL72机架生产的当前瓶颈短期内仍将存在,产品验收测试率、背板组装良率等仍处于较低水平;多数公司有信心在2025年第二季度实现机架交付的显著增长,并在下半年持续回升;预计2025年NVL72机架出货量为2.5万台,部分ODM认为年底出货量可达1.2 - 1.5万台,对2026年有利;小ODM在长组装过程中承担GB200组件库存面临资产负债表压力,大ODM如鸿海有机会利用更强的资产负债表地位获得市场份额 [5] 产品需求与市场情况 - **GB300系统需求意外强劲,HGX仍属小众**:部分ODM表示GB300 NVL72系统客户需求强劲,可能因其更高的HBM数量适合重度推理应用;与普遍观点相比更乐观,许多人认为GB300是GB200和2027年下半年Rubin之间的过渡产品;2025年上半年基于HGX的Blackwell出货量有小幅增长,但规模较小,尽管GB200供应链有挑战,HGX仍属小众解决方案 [5] 技术与产品设计相关情况 - **DPU与BMC应用变化**:GB200 Bianca计算托盘有两个BF3 DPU,GB300 Cordelia托盘有一个BF3 DPU,尽管GB300 GPU板设计回到Bianca板设计,但供应链反馈默认设计仍为每个GB300计算托盘一个DPU,MGX版本可选择增加DPU;非计算服务器领域BMC采用率上升 [7] - **液冷竞争与设计变化**:Computex上投资者感受到液冷竞争激烈,液冷是新技术,不同层次有不同供应商和竞争格局;多数美国CSP仍会委托竞争较小的供应商;AVC是2025年GB200/300和2026年下半年Vera Rubin最大的冷板模块供应商,美国大型CSP市场份额短期内不会改变;Nvidia在GB300中换回Bianca板设计以平滑生产,对液冷组件供应商不利,因TAM降低;尽管GB300的TDP比GB200高约15%,热管理供应商认为现有QD设计可满足额外热量产生 [7] - **ODM内部液冷组件采用推迟**:几家服务器ODM展示了内部液冷组件,旨在未来AI服务器产品中提高内部组件采用率以改善利润率和缩短产品设计周期;GB300产品管道延迟可能会推迟内部组件采用,因CSP优先考虑产品时间表并坚持GB200原始设计,但长期可能成为服务器ODM的利润率驱动因素 [7] - **数据中心电源HVDC是变革者**:下一代Vera Rubin服务器机架功耗为200kW,NVL576 Kyber结构为600kW,机架功耗超200kW + 会出现空间限制、铜母线过载和转换效率低等问题;Nvidia提议将Vera Rubin Ultra/Kyber服务器电压从230V提高到800V以提高电源效率和降低发热;800V HVDC电源机架采用可消除IT机架中的AC/DC转换,为高密度PSU腾出更多空间;但HVDC结构需要重构数据中心基础设施,Nvidia和CSP在结构上存在分歧,减缓了采用速度;HVDC采用有望扩大电源TAM,使基础设施供应商、电源机架供应商和电源芯片模块制造商受益 [7] 其他产品相关情况 - **独立电源机架与BBU、超级电容应用**:预计Vera Rubin服务器将初步采用独立电源机架,CSP倾向于在计算IT机架旁设置独立电源机架以提高电源效率;电源机架空间充足将推动BBU和超级电容采用,相比传统PSU内容增加1 - 3倍,对Delta和Lite - On Tech等传统PSU供应商有利;多数CSP迁移到带BBU设计的电源机架时会跳过UPS结构,对传统UPS供应商不利 [9] - **RTX Pro 6000 Blackwell服务器**:Nvidia在Computex展示了RTX Pro 6000 Blackwell服务器,可丰富企业AI服务器产品;虽有反馈认为该产品可能替代H20服务器,但因RTX Pro 6000采用GDDR7而非CoWoS HBM可缓解担忧,但其计算性能是H20的3 - 4倍(FP32下117 TFLOPs vs. 44TFLOPs),可能限制其替代H20的机会 [9] - **数据中心ASICs与NVLink Fusion**:Nvidia在Computex主题演讲中推出NVLink Fusion,将开放其专有芯片 - 芯片互连结构NVLink与第三方芯片集成,这是NVDA参与定制ASIC市场并确保其技术成为互连结构的举措;需观察未来2 - 3个季度CSP客户的采用情况,因存在对与NVDA进一步绑定的担忧;初步反馈显示部分CSP和二级ASIC客户有兴趣,对其宣布的合作伙伴如MediaTek、Marvell等可能有利 [9] - **CPO技术与过渡方案**:Nvidia计划在2026 - 2027年在Rubin Ultra/NVL576 Kyber中引入CPO,但热域分离困难且影响信号传输;多家供应商推广NPO和CPC作为过渡解决方案;CPO组装良率挑战、生态系统准备情况和高芯片温度导致的信号干扰可能会减缓其采用 [9] - **AI PC发展情况**:几家PC品牌通过推出内部AI解决方案来区分其AI PC产品,但缺乏创新AI应用作为关键差异化因素,AI PC渗透率低于预期;加上宏观不确定性,对今年AI PC前景更谨慎;中长期来看,AI推理成本降低和计算性能提升将丰富本地运行的AI应用,加速企业和消费领域AI PC采用 [9] - **Mediatek发展情况**:Mediatek正在研发大型网络芯片,已量产一年多,展示了强大的AI ASIC技术路线图,未来将朝着A16计算芯片、448 SerDes、3D封装、共封装光学和定制HBM发展;其汽车芯片性能可能优于QCOM,采用NVDA GPU和TSMC 3nm工艺节点;预计2026年下半年推出首个数据中心ASIC(TPU v7e),有机会赢得2027 - 2028年后续项目(TPU v8e with 2nm);预计2027年全球OEM将为其带来更有意义的汽车业务收入贡献 [9][11] 其他重要但是可能被忽略的内容 - **分析师认证与重要披露**:研究分析师认证其观点准确反映个人观点,且薪酬与特定推荐或观点无直接间接关联;报告涉及公司特定披露可通过特定网址、电话或邮件获取 [15][17] - **评级系统与覆盖范围**:J.P. Morgan使用超重、中性、减持评级系统,不同地区评级比较基准不同;报告列出分析师覆盖的公司 [18][19] - **研究报告相关信息**:可在特定网站获取J.P. Morgan过去12个月投资建议历史;研究分析师薪酬基于多种因素;非美国分析师可能未按FINRA规则注册,不受相关规则限制 [25][26][27] - **其他披露信息**:J.P. Morgan是投资银行业务营销名称;UK MIFID FICC研究有解捆豁免;研究材料同时在客户网站提供;报告中对中国相关地区有特定表述;J.P. Morgan研究可能涉及受制裁证券,客户需注意法律合规义务;数字或加密资产受快速变化监管环境影响;JPMS在ETF业务中有多种角色和收益;期权和期货相关研究信息获取方式;利率基准可能受监管改革影响;私人银行客户研究由J.P. Morgan Private Bank提供 [28][29][30][31][32][33][34] - **法律实体与地区特定披露**:报告列出不同国家和地区J.P. Morgan相关实体的监管情况、材料分发对象和相关合规要求 [37][38][39][40][41][42][43][44][46][47][48][49][50][51][52][53][54][55][56][59] - **通用信息与免责声明**:报告信息来源可靠,但J.P. Morgan不保证其完整性和准确性;意见、预测和投影可能变化,投资有风险;报告不构成投资建议,客户需独立决策;J.P. Morgan可能进行与报告观点不一致的交易;报告有保密和安全要求,使用MSCI和Sustainalytics信息有相关规定 [60]