纪要涉及的行业和公司 - 行业:科技、电信、数据中心、人工智能、半导体、服务器、汽车等行业 - 公司:NVDA(英伟达)、Hon Hai(鸿海)、ASPEED、AVC(3017.TW)、Vertiv、Delta、Lite - On Tech、MediaTek(联发科)、TSMC(台积电)、ASE Technology Holding Co Ltd(3711.TW)、ASMPT Ltd(0522.HK)、Alchip Technologies(3661.TW)等众多公司 [19] 纪要提到的核心观点和论据 数据中心AI需求与供应情况 - 需求趋势强劲且具长期增长可见性:NVDA对数据中心AI需求的可持续性充满信心,AI工厂建设才刚刚开始,主权AI、CSP和独立AI实验室都在投入资本建设AI工厂,预计将持续多年;NVDA CEO预计未来3 - 5年物理AI/机器人将达到拐点,推动GPU计算需求上升;特朗普政府关于AI扩散规则的新方向将使未来几个季度需求估计上升 [5] - 供应瓶颈短期存在但下半年机架生产将强劲增长:GB200 NVL72机架生产的当前瓶颈短期内仍将存在,产品验收测试率、背板组装良率等仍处于较低水平;多数公司有信心在2025年第二季度实现机架交付的显著增长,并在下半年持续回升;预计2025年NVL72机架出货量为2.5万台,部分ODM认为年底出货量可达1.2 - 1.5万台,对2026年有利;小ODM在长组装过程中承担GB200组件库存面临资产负债表压力,大ODM如鸿海有机会利用更强的资产负债表地位获得市场份额 [5] 产品需求与市场情况 - GB300系统需求意外强劲,HGX仍属小众:部分ODM表示GB300 NVL72系统客户需求强劲,可能因其更高的HBM数量适合重度推理应用;与普遍观点相比更乐观,许多人认为GB300是GB200和2027年下半年Rubin之间的过渡产品;2025年上半年基于HGX的Blackwell出货量有小幅增长,但规模较小,尽管GB200供应链有挑战,HGX仍属小众解决方案 [5] 技术与产品设计相关情况 - DPU与BMC应用变化:GB200 Bianca计算托盘有两个BF3 DPU,GB300 Cordelia托盘有一个BF3 DPU,尽管GB300 GPU板设计回到Bianca板设计,但供应链反馈默认设计仍为每个GB300计算托盘一个DPU,MGX版本可选择增加DPU;非计算服务器领域BMC采用率上升 [7] - 液冷竞争与设计变化:Computex上投资者感受到液冷竞争激烈,液冷是新技术,不同层次有不同供应商和竞争格局;多数美国CSP仍会委托竞争较小的供应商;AVC是2025年GB200/300和2026年下半年Vera Rubin最大的冷板模块供应商,美国大型CSP市场份额短期内不会改变;Nvidia在GB300中换回Bianca板设计以平滑生产,对液冷组件供应商不利,因TAM降低;尽管GB300的TDP比GB200高约15%,热管理供应商认为现有QD设计可满足额外热量产生 [7] - ODM内部液冷组件采用推迟:几家服务器ODM展示了内部液冷组件,旨在未来AI服务器产品中提高内部组件采用率以改善利润率和缩短产品设计周期;GB300产品管道延迟可能会推迟内部组件采用,因CSP优先考虑产品时间表并坚持GB200原始设计,但长期可能成为服务器ODM的利润率驱动因素 [7] - 数据中心电源HVDC是变革者:下一代Vera Rubin服务器机架功耗为200kW,NVL576 Kyber结构为600kW,机架功耗超200kW + 会出现空间限制、铜母线过载和转换效率低等问题;Nvidia提议将Vera Rubin Ultra/Kyber服务器电压从230V提高到800V以提高电源效率和降低发热;800V HVDC电源机架采用可消除IT机架中的AC/DC转换,为高密度PSU腾出更多空间;但HVDC结构需要重构数据中心基础设施,Nvidia和CSP在结构上存在分歧,减缓了采用速度;HVDC采用有望扩大电源TAM,使基础设施供应商、电源机架供应商和电源芯片模块制造商受益 [7] 其他产品相关情况 - 独立电源机架与BBU、超级电容应用:预计Vera Rubin服务器将初步采用独立电源机架,CSP倾向于在计算IT机架旁设置独立电源机架以提高电源效率;电源机架空间充足将推动BBU和超级电容采用,相比传统PSU内容增加1 - 3倍,对Delta和Lite - On Tech等传统PSU供应商有利;多数CSP迁移到带BBU设计的电源机架时会跳过UPS结构,对传统UPS供应商不利 [9] - RTX Pro 6000 Blackwell服务器:Nvidia在Computex展示了RTX Pro 6000 Blackwell服务器,可丰富企业AI服务器产品;虽有反馈认为该产品可能替代H20服务器,但因RTX Pro 6000采用GDDR7而非CoWoS HBM可缓解担忧,但其计算性能是H20的3 - 4倍(FP32下117 TFLOPs vs. 44TFLOPs),可能限制其替代H20的机会 [9] - 数据中心ASICs与NVLink Fusion:Nvidia在Computex主题演讲中推出NVLink Fusion,将开放其专有芯片 - 芯片互连结构NVLink与第三方芯片集成,这是NVDA参与定制ASIC市场并确保其技术成为互连结构的举措;需观察未来2 - 3个季度CSP客户的采用情况,因存在对与NVDA进一步绑定的担忧;初步反馈显示部分CSP和二级ASIC客户有兴趣,对其宣布的合作伙伴如MediaTek、Marvell等可能有利 [9] - CPO技术与过渡方案:Nvidia计划在2026 - 2027年在Rubin Ultra/NVL576 Kyber中引入CPO,但热域分离困难且影响信号传输;多家供应商推广NPO和CPC作为过渡解决方案;CPO组装良率挑战、生态系统准备情况和高芯片温度导致的信号干扰可能会减缓其采用 [9] - AI PC发展情况:几家PC品牌通过推出内部AI解决方案来区分其AI PC产品,但缺乏创新AI应用作为关键差异化因素,AI PC渗透率低于预期;加上宏观不确定性,对今年AI PC前景更谨慎;中长期来看,AI推理成本降低和计算性能提升将丰富本地运行的AI应用,加速企业和消费领域AI PC采用 [9] - Mediatek发展情况:Mediatek正在研发大型网络芯片,已量产一年多,展示了强大的AI ASIC技术路线图,未来将朝着A16计算芯片、448 SerDes、3D封装、共封装光学和定制HBM发展;其汽车芯片性能可能优于QCOM,采用NVDA GPU和TSMC 3nm工艺节点;预计2026年下半年推出首个数据中心ASIC(TPU v7e),有机会赢得2027 - 2028年后续项目(TPU v8e with 2nm);预计2027年全球OEM将为其带来更有意义的汽车业务收入贡献 [9][11] 其他重要但是可能被忽略的内容 - 分析师认证与重要披露:研究分析师认证其观点准确反映个人观点,且薪酬与特定推荐或观点无直接间接关联;报告涉及公司特定披露可通过特定网址、电话或邮件获取 [15][17] - 评级系统与覆盖范围:J.P. Morgan使用超重、中性、减持评级系统,不同地区评级比较基准不同;报告列出分析师覆盖的公司 [18][19] - 研究报告相关信息:可在特定网站获取J.P. Morgan过去12个月投资建议历史;研究分析师薪酬基于多种因素;非美国分析师可能未按FINRA规则注册,不受相关规则限制 [25][26][27] - 其他披露信息:J.P. Morgan是投资银行业务营销名称;UK MIFID FICC研究有解捆豁免;研究材料同时在客户网站提供;报告中对中国相关地区有特定表述;J.P. Morgan研究可能涉及受制裁证券,客户需注意法律合规义务;数字或加密资产受快速变化监管环境影响;JPMS在ETF业务中有多种角色和收益;期权和期货相关研究信息获取方式;利率基准可能受监管改革影响;私人银行客户研究由J.P. Morgan Private Bank提供 [28][29][30][31][32][33][34] - 法律实体与地区特定披露:报告列出不同国家和地区J.P. Morgan相关实体的监管情况、材料分发对象和相关合规要求 [37][38][39][40][41][42][43][44][46][47][48][49][50][51][52][53][54][55][56][59] - 通用信息与免责声明:报告信息来源可靠,但J.P. Morgan不保证其完整性和准确性;意见、预测和投影可能变化,投资有风险;报告不构成投资建议,客户需独立决策;J.P. Morgan可能进行与报告观点不一致的交易;报告有保密和安全要求,使用MSCI和Sustainalytics信息有相关规定 [60]
亚洲科技:2025 Computex关键要点