Workflow
NVL72
icon
搜索文档
黄仁勋直播回应为何新芯片不选英特尔代工,称台积电不可或缺
搜狐财经· 2025-09-19 19:04
黄仁勋还透露:"目前 x86 架构的生态系统还无法使用 NVL72 级别的产品,我们这次合作就是希望将 x86 CPU 直接整合进 NVLink 生态,打造机架级 AI 超 算"。 英特尔昨天宣布向英伟达投资 50 亿美元(IT之家注:现汇率约合 355.31 亿元人民币),两家公司的 CEO 表示,将汇集双方优势并共同开发多代定制数据 中心和 PC 相关产品。 直播中,黄仁勋表示目前英伟达能在 Arm 架构 CPU 的机架级产品中做到 NVL72 配置,而 x86 架构 CPU 的产品由于使用 PCIe 结构,规模被框限在 NVL8,此次双方达成合作的重点就是将 NVLink 引入英特尔的数据中心 CPU,让英伟达能同时提供 Arm 和 x86 架构的相关产品。 IT之家 9 月 19 日消息,英伟达创始人兼 CEO 黄仁勋今天凌晨与英特尔 CEO 陈立武开启联合直播,对谈两家公司的合作事宜。 在问及为何不将新芯片交给英特尔代工时,黄仁勋回应道,英伟达确实和英特尔有过合作,但台积电的重要程度不可忽视,且目前英特尔 IFS 的集成空间 相对有限。 而黄仁勋对此评价道:"我和陈立武都承认,台积电是一家世界级的代 ...
Nvidia CEO Huang says $5 billion stake in rival Intel will be 'an incredible investment'
CNBC· 2025-09-19 02:37
合作背景与过程 - 英伟达与英特尔达成50亿美元投资和技术合作 双方就此次合作进行了近一年的讨论[1] - 两家公司首席执行官拥有30年私交 个人层面直接沟通促成合作[2] - 交易谈判历时数月 最终协议于周六达成[3] 技术合作细节 - 共同开发数据中心人工智能系统 结合英特尔x86中央处理器与英伟达图形处理器及网络技术[3] - 英特尔将销售集成英伟达GPU的PC和笔记本CPU[3] - 英伟达将在NVLink机架中支持英特尔CPU 用于构建人工智能超级计算机[5][6] - 合作采用英特尔先进封装技术 将多个芯片组件集成至单一部件[8] 市场与财务影响 - 合作涉及产品目标市场规模达500亿美元[6] - 英伟达将成为英特尔CPU大客户 同时向英特尔芯片提供GPU小芯片[7] - 人工智能基础设施需求变化显著 每颗CPU需搭配两颗以上英伟达GPU[5] - 英伟达市值达4.25万亿美元 英特尔市值1430亿美元 五年股价表现分别为上涨1348%和下跌31.78%[4] 战略定位与业务关系 - 合作聚焦产品部门协作 不涉及英特尔代工业务[7] - 英伟达继续评估英特尔代工技术 但当前合作仅限于定制CPU领域[8] - 与英特尔合作不影响英伟达与Arm的现有业务关系[7] - 英伟达目前主要芯片制造合作伙伴为台积电[8]
CoreWeave电话会:推理就是AI的变现,VFX云服务产品使用量增长超4倍
硬AI· 2025-08-13 15:00
财务业绩 - 第二季度营收同比增长207%至12亿美元 首次实现单季度营收突破10亿美元和调整后营业利润2亿美元的双重里程碑 [6][40][41] - 调整后营业利润率达16% 调整后EBITDA利润率62% [76][77] - 上调2025年全年收入指引至51.5-53.5亿美元 较此前预期提高2.5亿美元 [9][85] 合同与订单 - 剩余履约合同金额达301亿美元 较年初翻倍 同比增长86% [5][44] - 过去8周与两家超大规模云客户签署扩展合同 其中一份已计入Q2业绩 [1][5][45] - 合同结构更侧重"扩展"而非"续签" 客户倾向在新硬件推出时追加采购 [12][103][106] 产能扩张 - 计划Q4实现900兆瓦以上电力交付能力 较当前470兆瓦提升近一倍 [5][10][44] - Q2资本支出29亿美元 环比增加超10亿美元 全年资本支出指引维持200-230亿美元 [10][77][85] - 最严重供应瓶颈为电力机架空间 GPU供应链和中压变压器也存在约束 [10][126][128] 客户多元化 - VFX云服务产品Conductor在2025年上半年使用量增长超4倍 与AI视频生成公司Moonvalley签署多年合同 [15][47] - 新增摩根士丹利、高盛等大型银行客户 医疗领域与Hippocratic AI建立合作 [15][47] - 推理工作负载使用量大幅增长 基础设施设计兼顾训练与推理需求 [3][121][123] 垂直整合 - 拟收购CoreScientific将带来1.3吉瓦电力容量 预计2027年底实现5亿美元年化成本节省 [17][18][69] - 收购Weights & Biases后推出三款联合产品 新增1600个客户 [61][193][211] - 垂直整合可消除100亿美元未来租赁负债 优化资本效率 [18][69] 融资进展 - 2024年以来累计融资超250亿美元 包括两笔高收益债和延期提款定期贷款 [8][79] - 最新26亿美元贷款成本为SOFR+400 较前次下降900个基点 [21][79][205] - 截至Q2末持有21亿美元现金 无2028年前到期债务 [78][79] 行业趋势 - AI基础设施市场存在结构性供应短缺 需求持续超过供给 [9][71][155] - 主权国家加速建设AI基础设施 公司在加拿大和欧洲市场取得进展 [13][137][142] - 推理业务被视为AI变现关键 经济性与训练负载相当 [125][163][164]
英伟达的光学 “幽灵”——NVL72、InfiniBand 横向扩展与 800G 及 1.6T 的崛起Nvidia’s Optical Boogeyman – NVL72, Infiniband Scale Out, 800G & 1.6T Ramp
2025-08-05 16:18
行业与公司 - 行业:高性能计算(HPC)、人工智能(AI)基础设施、光通信 - 公司:Nvidia(英伟达)[1][3][9] 核心观点与论据 1 **Nvidia Blackwell架构与DGX GB200 NVL72系统** - Nvidia发布Blackwell架构的8+种SKU,重点展示垂直集成的DGX GB200 NVL72系统,包含72个GPU、36个CPU、18个NVSwitch、72个InfiniBand NIC(后端网络)和36个Bluefield 3以太网NIC(前端网络)[1][2][10] - 技术规格: - FP4 AI算力1,440 PFLOPS,FP8 725 PFLOPS,FP16 362 PFLOPS - 72个Blackwell GPU,HBM3e内存总量13.3TB,总快速内存30.2TB - 互联:72个400Gb/s InfiniBand ConnectX-7 NIC + 36个200Gb/s InfiniBand/Ethernet BlueField-3 NIC[11] 2 **NVLink与光模块的争议** - NVL72通过5,184条铜缆(总长2英里)实现72个GPU互联,节省20千瓦功耗(若使用光模块需额外20千瓦)[5][6] - 市场误认为NVLink会减少光模块需求,但实际后端网络仍需72个400G/800G OSFP端口(每GPU一个),光模块与GPU比例不变[7][8][12] - 光模块需求仅在实际部署单机架时可能减少,但客户通常采购多机架[13] 3 **Clos非阻塞胖树网络架构** - H100采用Clos网络设计,支持400G全带宽互联,可扩展至2048个GPU(2层网络),更大规模需3层核心交换机[15][17][29] - 示例:512 GPU集群需16个叶子交换机(32端口800G)、8个主干交换机,总计1,280个光模块(2.5个/GPU)[18][20][30] - 2048 GPU集群需64个叶子交换机、32个主干交换机,光模块总数5,120(2.5个/GPU)[29][30] 4 **真正的光模块威胁:144端口Quantum-X800交换机** - Nvidia新推出的144端口1.6T交换机(Quantum-X800 Q3400-RA)使用72个OSFP端口(1.6T双端口光模块),总带宽115.2T(4倍于前代)[32][34] - 优势: - 9,216 GPU集群可保持2层网络(原需3层),减少70%交换机和27%光模块[36][37] - 光模块/GPU比例从3.5降至2.56[35][37] - 采用ConnectX-8(800G)和Quantum-X800的客户将降低光模块总量,但ASP可能提升[40] 其他重要内容 - **光模块市场影响**:1.6T光模块将逐步替代400G/800G,Nvidia的光网络架构变化可能重塑供应链需求[32][40] - **技术细节**: - 铜缆NVLink的功耗优势(20千瓦节省)[5] - 交换机层级对光模块数量的非线性影响(如4096 GPU集群需14,336个光模块)[30] - **行业误判**:市场最初高估NVLink对光模块的替代,实际需求取决于网络规模与交换机选择[7][8][36]
追踪中国半导体本土化进程_WAIC关键要点-中国人工智能半导体技术快速发展-Tracking China’s Semi Localization_ Shanghai WAIC key takeaways – rapid development of China AI semi technology
2025-08-05 11:20
关键要点总结 行业与公司 - **行业**:中国人工智能半导体技术[1][2][3][4] - **重点公司**:华为(CloudMatrix 384)、MetaX、Moore Threads、阿里巴巴T-Head[3][4][8][14] --- 核心观点与论据 中国AI半导体技术进展 - **华为CloudMatrix 384 (CM384)** - 性能:集成384颗Ascend 910C加速器,FP16算力215-307 PFLOPS,超越NVIDIA NVL72的180 PFLOPS[8][11][12] - 创新:采用UBLink技术(784GB/s带宽)和HBM内存共享,缓解LLM训练瓶颈[8] - 下一代计划:CM384 A5将搭载Ascend 910D处理器[8] - **其他本土AI芯片** - MetaX C600:SMIC n+2工艺(7nm),支持FP8精度,HBM3e内存144GB[8] - Moore Threads:支持FP8精度的LLM训练[8] - 阿里巴巴T-Head:5nm芯片搭配HBM,预装DeepSeek/Qwen3模型,专注领域特定LLM训练[14] - **市场需求**:中国AI推理需求强劲,应用扩展至AI代理、编程和多模态产品[2] --- 半导体设备与供应链 - **进口数据**: - 2025年6月中国半导体设备进口额30亿美元(同比+14%),但美国、荷兰、韩国进口额分别下降31%、17%、4%[24][25] - 2025年全球设备支出预测上调至1090亿美元(原1040亿)[24] - **自给率**: - 2024年中国半导体自给率24%(2023年为20%),预计2027年达30%[42][44] - 细分领域:GPU自给率34%(2024年),HBM领域仍受限[45][46] --- 投资机会与风险 - **机会**: - SMIC(中芯国际)受益于本土AI芯片需求,但市场对其先进节点ROI存疑[10] - 设备商(如ASMPT、NAURA)因产能扩张需求表现优异[29] - **风险**: - 中国开发者仍偏好NVIDIA H20(软件生态优势),本土GPU训练市场接受度低[10] - EDA工具本土化不足(如Empyrean股价因美国限制解除下跌)[30] --- 其他重要内容 - **股价表现**: - 1个月涨幅:ASMPT +25.3%,SMIC +19.8%,华虹半导体 +19.8%[29] - 12个月涨幅:SMIC +216.6%,华虹半导体 +110.9%[31][36] - **技术对比**: - NVIDIA NVL72 vs. 华为CM384:后者算力更高但网络带宽(1.8TB/s vs. 784GB/s)仍有差距[11][12] - **政策驱动**:中国推动成熟制程芯片(如图像传感器、功率半导体)自给率提升[45]
华为CloudMatrix 384与英伟达NVL72对比
半导体行业观察· 2025-07-30 10:18
核心观点 - 华为推出CloudMatrix 384机架系统,搭载昇腾P910C NPU,性能超越Nvidia H20,成为中国市场强劲替代品 [3][6][7] - 华为通过大规模集群设计(384个NPU)实现系统级性能优势,但牺牲了计算密度和能效 [9][11][15] - 在推理性能方面,华为系统展现竞争力,部分指标优于Nvidia H800 [13][14] - 中国市场的特殊性使华为获得竞争优势,但产能和成本仍是挑战 [16][17] 产品性能对比 芯片级对比 - 昇腾P910C FP16性能达752 teraFLOPS,是Nvidia H20的两倍多 [6] - P910C内存容量128GB,高于H20的96GB,但内存带宽3.2TB/s略低于H20 [6][4] - 相比Nvidia Blackwell GB200,P910C密集FP16性能约为其60% [3] 系统级对比 - CloudMatrix 384包含384个NPU,是Nvidia NVL72系统(72个GPU)的5倍多 [3][11] - 华为系统FP16性能达7.5倍,内存带宽5.6倍,内存容量3.4倍于NVL72 [11] - 华为系统占地面积是NVL72的16倍,功率约600kW vs NVL72的120kW [15] 技术架构 - P910C采用双计算芯片设计,通过540GB/s互连连接 [4] - 统一总线(UB)技术支持最多165,000个NPU的集群扩展 [9][11] - CloudMatrix-Infer平台实现高吞吐量推理,DeepSeek R1测试达6,688输入token/s [13][14] 市场与成本 - CloudMatrix 384售价约820万美元,Nvidia NVL72约350万美元 [16] - 中芯国际的制造能力是华为产能关键瓶颈 [16] - Nvidia已追加30万片H20订单满足中国需求 [17]
英伟达的下一个统治阶段开始了
美股研究社· 2025-07-22 20:13
公司业绩与市场表现 - 英伟达股价在三个月内上涨50%,从芯片制造商转型为全栈AI基础设施领导者[1] - 公司预计第二季度营收将达到450亿美元,高于市场预期,毛利率保持在75%以上[1] - 自由现金流利润率超过60%,显示出强劲的盈利能力[1][14] 产品路线图与技术优势 - Blackwell(GB200)和Spectrum-X推动投资者关注点从硬件转向平台盈利[1] - 2025年GB300系列将提升推理吞吐量50%,内存利用率和每瓦性能[4] - 2026年Vera Rubin架构基于HBM4内存和3nm节点,推理计算能力比GB300高三倍[4] - 2027年Rubin Ultra设计将提供15 exaFLOPS的FP4吞吐量,是GB300的14倍[5] - RTX 50系列显卡支持GDDR7显存和DLSS 4技术,推动消费级市场增长[7] 市场机会与竞争格局 - AI基础设施市场规模预计达3000-4000亿美元,公司计划投入100亿美元研发[10][12] - 竞争对手包括AMD的MI325X/MI400系列、Groq和Tenstorrent的推理专用芯片[12] - 出口管制导致45亿美元数据中心收入损失,但符合标准的H20等产品带来100-150亿美元机会[7][16] 财务与估值分析 - 市盈率54倍(预期40倍),较行业平均水平溢价64%-130%[12] - PEG比率0.68(GAAP)和1.37(非GAAP),低于行业中值[14] - 预期市销率21倍,EV/EBIT 34倍,较行业标准溢价560%-660%[14] 生态系统与长期优势 - CUDA、NeMo软件生态系统和平台粘性构成核心竞争力[14][17] - 机架级系统集成(硬件+软件+网络)提供定价权和商品化隔离优势[10] - 供应链整合和多节点路线图巩固行业领导地位[17]
OFC 50_英伟达铜互连技术 - SEMI VISION
2025-07-03 10:41
纪要涉及的公司和行业 - **公司**:英伟达(NVIDIA)、台积电(TSMC)、联华电子(UMC) - **行业**:人工智能(AI)、半导体、数据中心 纪要提到的核心观点和论据 英伟达架构与战略转变 - **核心观点**:英伟达的Blackwell架构旨在应对生成式AI和大语言模型带来的计算和互连需求挑战,且AI基础设施正从生成式模型向更具自主性的AI未来转变 [5][6] - **论据**:由生成式AI和大语言模型的爆炸式增长,数据中心对计算性能和互连带宽的需求达到前所未有的水平,Blackwell架构采用超大型GPU集群和先进互连系统 [5] NVLink5的关键作用 - **核心观点**:NVLink5是英伟达从生成式模型向自主性AI未来转变的关键推动者,适用于扩展GPU架构 [7] - **论据**:NVLink5通过高密度铜缆实现大规模GPU间带宽,同时保持可管理的功率和延迟限制,如在NVL72和未来的NNL576集群中 [7][8] 光子技术的发展趋势 - **核心观点**:随着数据速率提升,传统电气互连面临物理限制,光子技术如硅光子学将成为未来AI基础设施的重要组成部分 [10] - **论据**:数据速率向400Gbps及以上发展时,传统电气互连达到物理极限,英伟达与台积电合作开发硅光子技术,并将其应用于Quantum X平台 [10][12] 铜缆与光纤互连的应用场景 - **核心观点**:在AI计算扩展中,铜缆适用于节点内扩展(Scale - Up),光纤互连适用于节点间扩展(Scale - Out) [20][21] - **论据**:节点内距离短(通常小于1米),高速铜互连如PCIe和NVLink因低延迟和成熟生态系统是首选;节点间距离增加,对信号完整性、带宽密度和可靠性要求提高,光纤互连更具优势 [20][21] NVL72架构的重要性 - **核心观点**:NVL72高密度计算架构强调铜缆在下一代AI平台中的关键作用 [32] - **论据**:该架构由GB200超级芯片模块、NVLink开关托盘、垂直主干双轴电缆和电缆盒组成,基于NVLink5互连协议构建 [32] 信号完整性和电缆管理策略 - **核心观点**:在NVL72系统中,维护信号完整性和确保高效电缆管理是核心工程挑战,英伟达采用多方面策略应对 [41] - **论据**:通过SerDes调优、特定电缆设计和全自动化组装等策略,确保在200Gbps PAM4信号传输下的稳定性能 [41] 系统配置和可扩展性设计 - **核心观点**:GB200 NVL72和NVL36系统具有不同配置和可扩展性,满足不同计算需求 [54][57] - **论据**:NVL72可实现72个GPU的全连接,NVL36适用于模块化部署并可通过外部OSFP光模块扩展连接性 [54][57] Kyber机架的创新意义 - **核心观点**:Kyber机架重新定义了机架级架构,为未来AI超级计算平台奠定基础 [81][82] - **论据**:它能够堆叠4个NVL72系统,共288个GPU,具有超密集计算集成、外形优化、被动中平面互连和模块化铜基扩展潜力等特点 [77][78][79][80] 向400Gbps PAM4时代迈进 - **核心观点**:英伟达预览的NNL576架构标志着向400Gbps PAM4时代的重大飞跃,未来数据中心连接将采用混合互连架构 [87][88] - **论据**:NNL576的每通道信令速度翻倍至400Gbps,有效吞吐量可达448Gbps,需要互连支持更高带宽、更低误码率和更严格的信号损耗预算 [87][94] 其他重要但是可能被忽略的内容 - **DAC铜缆市场增长**:根据LightCounting估计,到2027年DAC铜缆连接市场将超过12亿美元,2023 - 2027年复合增长率为25%,远超AOC市场的14% [31] - **NVLink各代性能对比**:不同代NVLink在每GPU带宽和最大GPU连接数上有显著提升,如第二代NVLink每GPU带宽为300GB/s,第五代达到1800GB/s [67] - **Kyber机架目标应用**:Kyber机架旨在支持英伟达即将推出的Ruben Ultra计算平台,为高级自主性AI工作负载提供动力 [75]
中信证券:系统级算力有望成为AI发展的下一站 建议关注国内产业链相关公司
智通财经网· 2025-06-26 08:29
系统级算力发展趋势 - AI大模型训练和推理需求持续旺盛,scaling law在后训练和在线推理方向持续演进 [1] - 底层基础设施向更大集群发展,单芯片算力提升受先进制程影响迭代速度可能放缓,系统级节点通过解决互连、网络、内存墙等问题成为重要方向 [1] - 系统级算力有望成为AI发展的下一站,国产GPU芯片公司可能通过高资源密度算力基础设施实现对海外产品的追赶和超越 [1] 系统级算力的技术需求 - 芯片层面涉及AI加速芯片、CPU芯片、Switch互连芯片、DPU数据处理芯片,国产AI加速芯片在峰值算力和软件生态上仍落后于海外旗舰产品 [2] - 互连层面NVLink5.0提供1.8TB/s双向带宽,远超传统PCIe方案十倍,国产芯片需自研技术方案助力系统集群发展 [2] - 网络层面采用RDMA技术实现远程内存访问,主流技术包括InfiniBand、RoCE等 [2] - 整机层面系统级算力需通过系统设计、规划、测试完成,与传统AI服务器相比更需垂直融合能力 [2] 系统级算力的技术示范 - 单芯片算力发展快于通信领域,通信效率成为集群效率提升关键因素 [3] - 构建大集群的两种方式:Scale up(纵向扩展)和Scale out(横向扩展),Scale up因更大带宽、更低时延和更大缓存一致性内存空间成为重要方向 [3] - 英伟达NVL72系统和华为CloudMatrix384超节点为行业发展提供示范 [3] 半导体行业的整合趋势 - 半导体行业通过收并购进行技术整合与市场拓展,头部企业通过并购获取市场机会并扩展技术能力 [4] - 英伟达收购Mellanox扩展NVLink至IB等RDMA网络,为下一代大规模计算集群做技术储备 [4] - AMD收购ZT Systems获取系统架构设计能力和数据中心解决方案交付经验,构建AI解决方案核心 [4] 未来基础设施的关键因素 - 底层通用性与技术前瞻性对未来基础设施搭建至关重要,应用发展将随之带来回报 [5]
计算机行业周报:从CloudMatrix看超节点趋势!3D打印产业强趋势-20250621
申万宏源证券· 2025-06-21 22:26
报告行业投资评级 看好 —— 计算机行业 [2] 报告的核心观点 本周计算机行业呈现超节点趋势和3D打印消费级需求释放两大趋势,同时新国都、海光信息、北森控股等重点公司有重要进展,投资者可关注数字经济领军、AIGC应用等多领域标的 [2][3] 根据相关目录分别进行总结 从华为CloudMatrix384看AI服务器未来趋势 - GPU互联规模和效率决定AI服务器集群性能,其扩大有Scale - up和Scale - out两个方向,二者在协议栈、硬件拓扑、容错机制和通信效率上存在本质差异 [4] - Scale - up突破单服务器/机柜限制进入“超节点”时代,核心是实现节点内GPU全互联,华为CloudMatrix384和英伟达NVL72已验证该趋势 [2][6] - CloudMatrix384通过增大Scale - up规模弥补单卡性能短板,提升整体算力和MoE模型训推效率,其拓扑结构和产品形态与NVL72有差异 [17] - CloudMatrix384已规模上线,下游客户丰富,其方案将推动AI芯片以“超节点”形式出货、400G多模或LPO采购增加、AIDC需求增加和液冷渗透率提升等产业链新趋势 [24][25] - Scale - out方面,以太网性价比不输Infiniband,预计未来二者在AI服务器集群中二元共存局面将继续保持 [25] 3D打印:从工业级到消费级,需求有望快速释放 - 25年5月我国3D打印设备产量同比增长40%,消费级3D打印产品因价格下探和操作简化迎来快速增长阶段 [2][28] - 3D打印是增材制造技术,核心价值是突破模具限制,实现设计自由度与制造效率跃升,其实现对操作者有一定门槛,性价比及产品精度是厂商核心 [30][32][33] - 当前主流3D打印技术呈现差异化发展路径,FDM是消费级主流选择方案,3D打印核心竞争力体现在设计自由度、定制化能力、成本效率和可持续性四个维度,产业化应用跨领域拓展 [40][41][42] - 3D扫描仪可降低3D打印使用门槛,提升精度,3D打印核心产业链相关公司包括消费级3D打印机整机、3D打印核心部件和3D扫描仪企业 [45][50] 重点公司更新 新国都:AIGC与支付出海 - 公司海外本地收单在国内A股上市收单公司中领先,海外重点布局SoftPOS发展海外移动支付,获全球首张MPoC证书 [51] - 公司海外AIGC布局已产生正收益,海外参股公司Duality Intelligence Limited已推出多款AI应用,2023年公司从参股AI公司取得投资收益约3364万元 [52] - 国内收单行业出清,费率止跌回升,公司收单业务综合排名靠前,有望享受行业出清红利 [52] 海光信息:换股合并中科曙光,长期打造国产算力“航母” - 海光信息发布换股吸收合并中科曙光并募集配套资金暨关联交易预案,换股方案实际曙光价格溢价254亿元,海光拟定增配套换股 [53] - 本次整合有利于公司业务拓展,最终打造国产算力领军“航母” [53] 北森控股:一体化HR SaaS,深耕HR领域20余年 - 公司以人才招聘、测评为基础,打造一体化HR SaaS及人才管理解决方案iTalentX,助力企业提升组织效能 [56] - iTalentX 8.0升级2000 +功能和场景,扩大一体化产品领先能力 [56] - 公司核心能力来自心理学研究,独家语料形成核心壁垒,随着大模型能力增强,公司优势将被放大 [60] 风险偏好判断以及重点标的 - 数字经济领军:海康威视、金山办公等 [62] - AIGC应用:金山办公、新致软件等 [64] - AIGC算力:浪潮信息、海光信息等 [64] - 数据要素:税友股份、博思软件等 [64] - 信创弹性:海光信息、太极股份等 [64] - 港股核心:中国软件国际、金蝶国际等 [64] - 智联汽车:德赛西威、虹软科技等 [64] - 新型工业化:中控技术、赛意信息等 [64] - 医疗信息化:润达医疗、嘉和美康等 [64]