Rubin Ultra
搜索文档
朱雀基金:算力革命下电力设备或开启第二成长曲线
中证网· 2025-11-07 21:11
文章核心观点 - 海内外科技巨头加大资本开支建设AI基础设施,电网投资景气持续,巨额投资背后是能源基础设施改造的迫切需求和高密度算力对电力的全新挑战 [1] - 在“算力革命”下,电力设备行业或开启第二成长曲线,AI发展为电力设备行业增添新的增长动力 [1] AI发展对电力需求的影响 - AI高速发展为电力设备行业增添新的增长动力,ChatGPT的调用消耗电力是传统搜索查询的10倍左右 [1] - AIDC作为AI基础设施核心,其稳定运转基础是能源,AIDC发展有望带动能源基础设施建设提升 [1] - 算力功率密度与整体体量提升,有望带动整体供电架构演变,为产业链带来广阔发展机遇 [1] 电网建设与电源侧发展 - 可再生能源快速发展过程中,电网侧建设进度往往滞后于电源侧,为跟上电源侧发展,电网建设正在加速 [1] 数据中心供电架构技术趋势 - 英伟达在OCP全球峰会上推出面向未来AI数据中心的800V高压直流电源架构,展示服务器功率密度的爆发式演变 [1] - 随着机架功率密度持续提升,传统415V交流系统已难以满足需求,800V直流配电或成为未来趋势 [2] - 交直流转换设备集中度越来越高,采用SST将13.8kV-35kV交流直接转为800V直流,有助于简化系统、节省用地且适配光伏与储能 [2] 高功率密度带来的挑战与解决方案 - 随着GPU功率提升及同步运行,机架功率可能出现30%-100%的较大范围波动,给供电甚至电网层面带来挑战 [2] - 针对功率波动挑战提出软件优化、储能系统平抑、GPU功率平滑特性、限制GPU性能四项解决方案 [2] 新兴市场机遇与竞争格局 - 机架功率波动为超级电容、储能等开辟应用空间,也为新型电力系统提供启示,如通过调整用电匹配发电增强系统稳定性 [2] - 具备较强系统性解决方案能力的企业将在竞争中占据优势 [2] - 随着Rubin Ultra产品出货量提升,SST渗透率有望同步增长,并具备跨行业应用潜力 [2]
野村-下一代人工智能芯片的散热革命-Nomura-ANCHOR REPORT:Cooling revolutions for next_gen AI chips
野村· 2025-10-17 09:46
行业投资评级 - 报告对Jentech (3653 TT)的初始评级为“买入”,目标价为新台币3,186元 [15][16][17] - 报告重申对AVC (3017 TT)的“买入”评级,目标价从新台币1,386元上调至新台币1,700元 [15][17][150] - 报告重申对Auras (3324 TT)的“买入”评级,目标价从新台币880元上调至新台币1,160元 [15][17][169] 核心观点 - AI芯片热设计功耗的快速升级将推动液冷行业进入新技术阶段,微通道盖板有望成为2027财年及以后3,000W以上芯片最实用的新型散热解决方案 [3][6][19] - 尽管微通道盖板是未来趋势,但当前传统散热组件制造商在未来两到三年内仍有显著增长空间,驱动力包括AI GPU从半液冷转向全液冷、AI ASIC从气冷转向液冷的渗透率提升以及AI机柜出货量的快速增长 [3][14][39] - 液冷是AI性能升级的大趋势,其总潜在市场的强劲增长足以在未来2-3年内同时推动传统散热组件制造商和新技术赋能商的盈利增长 [15][41] AI芯片散热技术演进路径 - AI芯片热设计功耗正快速提升,从一两年前的600-700W增至2025年的1,200-1,400W,预计到2026财年中将升级至约2,000W及以上,2027财年芯片热设计功耗很可能超过3,000W [6][19][33] - 当热设计功耗超过3,000W时,传统的单相液冷冷板可能接近散热极限,需要替代性冷却方案,如微通道盖板、两相液冷或芯片上直接液冷 [6][19][98] - 2025年是液冷解决方案成为商用AI GPU主流的元年,但技术迭代加速,下一代冷却技术预计从2026财年末至2027/28财年出现 [6] 微通道盖板技术与前景 - 微通道盖板是一种将均热板与冷板集成的冷却解决方案,通过消除一个边界层来最小化热阻,其散热路径从传统的“芯片→导热界面材料1→盖板→导热界面材料2→冷板”缩短为“芯片→导热界面材料1→微通道盖板” [7][23][104] - 微通道盖板基于单相液冷,冷却剂及周边组件与当前主流解决方案兼容,这使其可能比两相液冷方案更早被采纳 [7][23][100] - 微通道盖板可能具有更低的Z轴高度,这对于未来更高密度的AI服务器架构至关重要 [7][23] - 微通道盖板的广泛采用面临设计、制造和供应链工作流程重组等多重挑战,其准备时间可能需要一年或更久 [7][8][28] 其他先进散热技术分析 - 两相液冷解决方案虽然能处理3,000W以上芯片,但由于其系统压力更高且不稳定、组件和系统需要重新认证、冷板Z轴高度更高等挑战,短期内不太可能被广泛采用 [32][149] - 芯片上直接液冷方案仍处于研究阶段,其可制造性和可扩展性面临挑战,预计在近期内仅停留在纸面 [10][36][37] - 导热界面材料可能升级,Rubin Ultra有可能开始使用金属铟作为导热界面材料1,以应对热设计功耗提升和石墨膜散热限制 [10][13][38] 当前散热组件制造商的增长机遇 - 除了最高功耗的AI芯片,AI系统中的其他组件仍将需要液冷解决方案,而目前许多仍采用气冷,这一市场增长机会被低估 [14][39][151] - 如果微通道盖板在2027财年下半年至2028财年实现大规模量产,AI客户将需要第二货源,这为当前的领先冷板制造商提供了机会 [14][39][43] - AMD和许多AI ASIC计划从2026财年下半年开始采用更多液冷解决方案,这将成为当前散热组件制造商的重要增长动力 [14][39][151] 重点公司分析 - Jentech作为全球领先的均热板制造商,其在微通道盖板方面的产品升级机会、与台积电的紧密合作以及液冷模块经验,使其有望成为该新技术的早期主要受益者,预计其2025财年/26财年/27财年盈利将分别增长53%/31%/47% [16][42] - AVC作为英伟达、AMD和大多数ASIC客户的领先液冷解决方案提供商,有望受益于液冷渗透率提升,其2025财年第三季度销售额环比增长32%,超出市场预期 [150][152] - Auras目前在冷板市场份额较小,这限制了微通道盖板可能带来的负面影响,其在歧管方面的业务不受微通道盖板影响,并能从未来AI服务器中更多的全液冷设计中显著受益 [45][169]
系统组装:AI服务器升级的新驱动力
东方证券· 2025-09-28 22:43
行业投资评级 - 电子行业评级为看好(维持)[5] 核心观点 - 系统组装成为AI服务器性能提升的新驱动力 替代制程工艺升级放缓的瓶颈[8] - 制程工艺升级驱动芯片性能提升 但未来升级步伐可能放缓 台积电工艺从2011年28nm升级至2025年2nm 并有望2028年升级至A14工艺(1.4nm)[8] - 先进封装成为芯片性能提升的又一驱动力 英伟达B200采用双颗裸晶合封工艺 实现单一封装集成2080亿颗晶体管 超过H100(800亿颗晶体管)两倍[8] - AI服务器GPU数量从单台8张升级至单个机柜72张 并将在2027年VR Ultra NVL576机柜中升级至144张GPU(每张封装4颗GPU裸晶 合计576颗GPU裸晶)[8] 投资建议与投资标的 - 维持推荐AI服务器系统组装相关标的:工业富联(601138 买入)、海光信息(688041 买入)、联想集团(00992 买入)、华勤技术(603296 买入)等[8] - 工业富联:GB200系列产品测试二季度较一季度大幅优化 系统级机柜调试时间显著缩短 自动化组装流程导入 预计GB200三季度出货量延续强劲增长 主要订单来自北美大型云服务商 GB300单台利润存在超过GB200潜力[8] - 海光信息:合并中科曙光 有望形成包括CPU、DCU及系统组装在内的垂直整合能力[8] - 联想集团:英伟达表示联想等合作伙伴预计从2025年下半年开始推出基于Blackwell Ultra的各类服务器[8] - 华勤技术:国内知名互联网厂商AI服务器核心ODM供应商 交换机、AI服务器、通用服务器等全栈式出货 受益下游云厂资本开支扩张[8] 市场背景与趋势 - AI服务器市场保持增长 硬件升级正当其时[7] - AI算力设施需求驱动 SiC/GaN打开成长空间[7] - AI算力浪涌 PCB加速升级[7]
深夜暴涨,芯片重大利好
证券时报· 2025-09-24 07:19
台积电涨价与市场表现 - 台积电计划对其3纳米和2纳米制程工艺节点进行涨价 [1][2] - 台积电ADR在美股盘初一度暴涨近5%,创历史新高,截至22:50涨幅为3.5% [1][2] - 由于研发成本高昂和良率优势,台积电2纳米制程价格相比3纳米或至少上涨50% [2] 芯片行业涨价潮 - 除台积电外,三星、美光科技和闪迪等芯片大厂也已宣布涨价策略 [1][3] - 三星大幅上调内存和闪存价格,DRAM产品涨幅高达30%,NAND闪存价格上涨5%至10% [3] - 美光科技的存储芯片产品价格涨幅达20%至30%,并暂停接受新订单 [3] 芯片股市场反应 - 美股芯片股多数走强,英特尔大涨超4%,美光科技、安森美半导体涨超2%,博通、阿斯麦ADR、应用材料、德州仪器均涨超1% [2] - 亚洲交易时段,三星电子股价上涨1.44%,SK海力士股价上涨2.85% [3] 先进制程需求与客户 - AI浪潮推高半导体需求,数据中心建设增加存储器采购量,增强芯片供应商议价能力 [1] - 苹果iPhone 17系列的A19芯片采用台积电3nm N3P制程,下一代A20将采用2纳米工艺 [3] - 英伟达下一代AI芯片Rubin Ultra和AMD的Instinct MI 450 AI也将采用台积电2纳米工艺 [3] 美联储政策观点 - 美联储理事鲍曼表示决策者可能面临“落后于形势”的风险,需要果断采取行动应对劳动力市场疲软 [5] - 鲍曼预计2025年共降息三次,并认为关税对通胀的影响有限且短暂 [5] - 芝加哥联储主席古尔斯比认为应谨慎降息,因通胀高于目标,其认为劳动力市场稳定,与鲍曼观点形成对立 [6]
电子掘金:海外算力链还有哪些重点机会?
2025-08-05 11:15
行业与公司分析总结 行业概况 - 北美头部云厂商(谷歌 Meta 微软 亚马逊)2025年资本开支总额预计超3660亿美元 同比增长47% 远超市场预期[1][2] - AI产业持续创新 Anthropic Claude 4和Xai Grok Four等新模型在性能与计算资源上显著提升 计算资源提升达10倍[10] - PCB板块近期波动大 受COVF/SOP技术路径讨论和海外云厂商KPIX预期上调影响显著[14] 核心公司动态 Meta - 将"超级智能"作为战略目标 成立Meta Superintelligence Labs 计划通过五大商业机会实现投资回报:广告系统优化 用户体验增强 企业级服务 AI产品深化 AI硬件拓展[7] - 2025年资本开支下限从640-720亿美元提升至660亿美元 暗示2026年可能接近千亿美元量级[2][4] - 生成式AI项目仍处早期 短期不会成为主要收入驱动力 投资侧重中长期发展[7] 谷歌 - 2025年资本开支从750亿美元上调至850亿美元 同比增62% 超出市场预期的800亿美元[2][4] - 云计算业务单季度收入136亿美元 同比增32% 客户满意度高流失率低[8][9] - 频繁更新Gemini模型和VIVO3视频大模型 打造AI硬件生态闭环[4] 微软与亚马逊 - 微软维持下财季超300亿美元资本开支增长 持续加大基础设施投资[2][4] - 亚马逊预计2025年下半年维持上半年投资力度[2][4] 技术发展趋势 PCB技术 - cobalt工艺通过PCB替代载板简化结构 H100单位价值量约100美元 Rubin Ultra可能增至四五百美元[3][18] - 面临散热和芯片翘曲挑战 需解决GPU与HBM存储裸带直接堆叠问题[18][19] - 高阶HDI向SLP发展 线宽线距从40-60微米缩小至20微米 工艺从减成法转向半加成法[20][21] ASIC供应链 - 2026年需求弹性显著 单机价值量和总数量均有望超过MV[3][16] - 新丰鹏鼎 东山景旺等新兴企业有望切入[3][16] - 谷歌 亚马逊 Meta芯片量将有较大弹性[16] 市场与投资机会 - 2026年KPIX投入将更明确持续 硬件需求确定性增强[15] - 晶胶背板趋势明确 2026年预计使用26×33混压高多层板 市场增量约20多亿美元[24] - 建议关注回调布局机会 因27年仍有大量新需求驱动[12][15][24] - 重点关注PCB板块中的胜宏 沪电 顺鑫科技等标的[15] 潜在风险与挑战 - OpenAI GPT-5发布延期引发市场担忧 但产业整体发展未停滞[10] - 封装工艺变革可能影响现有产能(如台积电COBOS工艺转向Coworks Cobop)[25] - 载板被替代后 前期载板产能如何快速转换为HDI/SLP[25] - 扩产后供需平衡问题 但预计2026-2027年市场需求仍高景气[25]
大摩:市场热议的CoWoP,英伟达下一代GPU采用可能性不大
硬AI· 2025-07-30 23:40
技术路径选择 - 英伟达下一代GPU产品Rubin Ultra仍将沿用现有的ABF基板技术,而非转向CoWoP方案 [2] - 从CoWoS转向CoWoP在技术上仍面临重大挑战,对ABF基板的依赖短期内难以改变 [1][2] - 技术转换的复杂性和供应链重组风险使得短期内大规模采用CoWoP并不现实 [1][2] 技术门槛 - CoWoP技术要求PCB的线/间距(L/S)缩小至10/10微米以下,与目前ABF基板的标准相当 [5] - 当前高密度互连(HDI) PCB的L/S为40/50微米,类基板PCB(SLP)仅达到20/35微米,缩小至10/10微米以下存在显著技术难度 [5] - 技术壁垒是Rubin Ultra不太可能采用CoWoP的主要原因之一 [6] 供应链风险 - 从CoWoS转向CoWoP将带来显著的良品率风险和相关供应链的重组 [8] - 台积电的CoWoS良品率已接近100%,技术切换存在不必要风险 [8] - 技术转换涉及整个供应链生态系统的重新配置,短期内实施的复杂性和风险较高 [8] CoWoP潜在优势 - CoWoP技术优势包括信号路径更短、散热性能显著提升、电源完整性更好、解决有机基板产能瓶颈问题 [10] - 采用CoWoP可解决基板翘曲问题、增加NVLink覆盖范围、实现更高散热效率、消除某些封装材料产能瓶颈 [10] - 不排除英伟达正在并行开发CoWoP技术的可能性,作为当前量产技术的补充 [3][10]
NVIDIA Selects Navitas to Collaborate on Next Generation 800 V HVDC Architecture
Globenewswire· 2025-05-22 04:17
文章核心观点 - 纳微半导体(Navitas)的氮化镓(GaN)和碳化硅(SiC)技术被选中支持英伟达(Nvidia)800V高压直流(HVDC)数据中心电力基础设施,以支持1兆瓦及以上的IT机架 [1][21] 合作信息 - 纳微半导体与英伟达合作,为其下一代800V HVDC架构提供支持,助力为GPU供电的“Kyber”机架级系统 [1] 英伟达800V HVDC架构优势 - 旨在为下一代人工智能工作负载建立高效、可扩展的电力输送,确保更高可靠性、效率并降低基础设施复杂性 [2] - 现有数据中心架构使用传统54V机架内配电,功率受限且存在物理限制,而英伟达将13.8kV交流电网电力直接转换为800V HVDC,可消除多个转换步骤,提高效率和可靠性 [3][4] - 800V HVDC可使铜线厚度最多减少45%,解决传统系统铜需求大的问题,满足人工智能数据中心高功率需求 [5] - 800V HVDC直接为IT机架供电,经DC - DC转换器转换为较低电压驱动GPU [6] - 该架构将端到端电力效率提高达5%,因电源故障减少使维护成本降低70%,通过直接连接HVDC到IT和计算机架降低冷却成本 [13] 纳微半导体技术优势 - 是氮化镓和碳化硅技术支持的人工智能数据中心解决方案的领导者,其高功率GaNSafe功率IC集成多种功能,具有高可靠性和鲁棒性 [7] - 提供中压(80 - 120V)氮化镓器件,针对二次侧DC - DC转换优化,适用于输出48V - 54V的人工智能数据中心电源 [8] - 凭借20年碳化硅创新领导地位,GeneSiC专有技术提供卓越性能,G3F SiC MOSFETs高效高速,可降低温度并延长使用寿命 [9] - 碳化硅技术电压范围广,已应用于多个兆瓦级储能和电网逆变器项目 [10] 纳微半导体产品成果 - 2023年8月推出高速高效3.2kW CRPS,尺寸比同类硅解决方案小40%;后推出4.5kW CRPS,功率密度达137W/in,效率超97% [12] - 2024年11月发布世界首个8.5kW人工智能数据中心电源,效率达98%,符合相关规范;还创建IntelliWeave数字控制技术,结合高功率器件使PFC峰值效率达99.3%,降低30%功率损耗 [12] - 5月21日在“AI Tech Night”展示最新12kW电源 [12] 纳微半导体公司概况 - 成立于2014年,是纯下一代功率半导体公司,拥有GaNFast和GeneSiC技术,专注于人工智能数据中心等多个市场,拥有超300项专利,提供20年GaNFast保修,是世界首个获得碳中和认证的半导体公司 [17]
910C的下一代
信息平权· 2025-04-20 17:33
华为昇腾CloudMatrix与UB-Mesh技术分析 核心观点 - 华为发布的CloudMatrix 384超节点与UB-Mesh论文描述的架构存在显著差异 表明两者属于不同代际或应用场景的技术方案 [1][8] - CloudMatrix已实现384颗NPU光互联商用 而UB-Mesh论文提出8000颗NPU超节点构想 显示技术路线存在分级演进可能 [8][9] - 华为在超节点网络架构积累可能超越英伟达 尤其在分布式交换和拓扑优化方面展现独特优势 [10][11] 技术架构差异 - **硬件形态**:UB-Mesh采用1U机箱 每机柜64NPU 而CloudMatrix单机柜32NPU(384/12) 物理结构完全不同 [1] - **互联协议**:CloudMatrix采用光互联实现384NPU商用 UB-Mesh提出电互联(机柜内)+光互联(机柜间)混合方案 [5][9] - **NPU设计**:UB-Mesh描述的NPU集成分布式交换功能 可能对应昇腾910C下一代设计 当前910C尚未具备此能力 [10] 性能与成本争议 - **功耗对比**:CloudMatrix单机柜约50KW 支持风冷 而英伟达NVL72达145KW 但整体能效需结合电力基础设施评估 [2][5] - **光模块优势**:华为垂直整合光模块产业链 可能通过规模效应将400G模块成本降至竞争对手1/3以下 [3][6] - **传输速率**:华为自研光模块可实现8x64G=512Gbps单模速率 远超行业标准400G(8x50G)设计 [4] 行业竞争格局 - **技术路线**:英伟达转向全电互联(NVL72) 华为坚持光电混合方案 在超大规模集群(8000NPU)领域形成差异化 [8][9] - **生态构建**:中国AI基础设施可能形成独立生态 DeepSeek等应用需求正反向推动国产硬件创新 [11] - **工程能力**:中国企业在1-10阶段工程化优势显著 光模块等核心部件成本压缩速度超国际预期 [6][12] 技术演进方向 - **代际划分**:CloudMatrix 384代表UB1.0商用方案 UB-Mesh论文预示UB2.0将支持8000NPU级超节点 [11] - **拓扑优化**:分级拓扑成为趋势 机柜内电互联+机柜间光互联方案平衡性能与成本 [9][10] - **延迟控制**:分布式交换架构使Mesh拓扑实现all2all通信 逻辑延迟可能低于Clos架构 [10]
NVIDIA GTC 2025:GPU、Tokens、合作关系
Counterpoint Research· 2025-04-03 10:59
AI经济与Tokens化 - Tokens作为新型"货币"用于检索或生成信息 推动AI经济发展 但需要大量算力支持[2] - AI推理模型复杂度提升 对准确性要求更高 需遵循预训练 后训练和测试时扩展三条定律[2] - 进入Agentic时代 组织机构需在训练到推理全流程中遵循扩展流程以实现高效推理[2] NVIDIA技术栈创新 - 公司提供完整AI技术栈 涵盖芯片 系统和软件 以最高效率加速和扩展AI[4] - 技术栈覆盖Agentic AI和Physical AI领域 芯片路线图从计算到硅光子学均有重大发布[4] - 软件专业技术是最大优势 促使高性能芯片广泛应用 与竞争对手差距持续拉大[32] 芯片产品与技术 - 产品组合包括CPU GPU和网络设备 最新Blackwell平台GB300 NVL72性能提升1.5倍[6] - Rubin系列GPU采用FP4精度 性能达50-100 petaFLOPS 配备288GB-1TB HBM4存储器[6] - Vera CPU性能是Grace的两倍 功耗仅50W 更新节奏为每两年一次[6] - 光谱-X硅光子学产品可节省数兆瓦电力 解决横向扩展至数百万GPU的瓶颈问题[9] 系统解决方案 - Blackwell Ultra DGX SuperPOD配备36个Grace CPU和72个Blackwell GPU AI性能比Hopper高70倍[10] - DGX Spark个人超级计算机系统性能达1 petaFLOPS 适用于微调与推理[13] - 系统发布为Dell Lenovo等供应商提供强大AI解决方案基础 直接冲击苹果Mac Studio市场[13] 软件平台 - Dynamo开源框架提升AI推理效率 运行DeepSeek-R1模型Tokens生成能力可提升30倍[19] - Halos平台整合安全系统 覆盖从芯片到算法全流程 吸引众多汽车厂商采用[20][21] - CUDA-X拥有超百万开发者 成为最受欢迎的AI编程工具包 拓展至各行业应用[26] - Aerial平台开发原生AI 6G技术栈 涵盖从无线电设备到网络数字孪生的端到端方案[25][26] 新兴领域布局 - Isaac GR00T N1是全球首个人形机器人基础模型 采用双系统架构模拟人类决策与反射[29] - 与谷歌DeepMind和迪士尼合作开发开源牛顿物理引擎 提升机器人处理复杂任务能力[29] - Omniverse-Cosmos平台通过合成数据训练机器人 在不同场景中微调行为[29]
NVIDIA GTC 2025:GPU、Tokens、合作关系
Counterpoint Research· 2025-04-03 10:59
AI经济与Tokens化 - Tokens是用于检索或生成信息的新型"货币",推动AI经济发展,需要大量算力支持[1] - AI推理模型复杂度提升需要更高准确性,组织机构需遵循预训练、后训练和测试时的扩展流程[1] - NVIDIA愿景聚焦构建跨行业"AI工厂",涵盖企业IT、云计算到机器人技术[1] NVIDIA芯片技术进展 - 发布Blackwell超级AI工厂平台GB300 NVL72,AI性能比GB200 NVL72提升1.5倍[6] - 公布芯片路线图,支持从Hopper系列升级到Rubin/Feynman系列,Rubin Ultra采用四掩模版GPU,FP4精度达100 petaFLOPS,搭载1TB HBM4e存储器[6] - 新款Vera CPU拥有88个Arm核心,性能是Grace CPU两倍,功耗仅50W,更新周期两年[6] - 推出Spectrum-X硅光子学产品,可横向扩展至数百万GPU,节省数兆瓦电力[6] 系统与基础设施 - 发布DGX SuperPOD GB300,配备36个Grace CPU和72个Blackwell GPU,AI性能比Hopper系统高70倍[10] - 采用第五代NVLink技术和大规模共享内存系统,可扩展至数千个GB超级芯片[10] - 推出1 petaFLOPS的个人超级计算机系统GB10,针对桌面优化微调与推理[14] 软件生态系统 - Dynamo开源框架提升AI推理效率,可使GPU的Tokens生成能力提升30倍以上[19] - Halos平台整合自动驾驶安全系统,覆盖从芯片到算法全链条[20] - CUDA-X拥有超100万开发者,成为最受欢迎的AI编程工具包[23] - 发布Isaac GR00T N1人形机器人基础模型,采用双系统架构模拟人类决策与反射[25] 行业应用拓展 - Aerial平台构建端到端AI驱动的6G技术栈,与T-Mobile等合作开发原生AI网络[23] - Omniverse-Cosmos平台支持机器人训练与场景微调,与DeepMind合作开发物理引擎[25] - 软件专业技术是NVIDIA核心优势,推动高性能芯片在HPC、自动驾驶等领域的应用[25]