NVLink

搜索文档
增长迅猛如火箭!网络业务成英伟达(NVDA.US)AI芯片霸主地位隐形支柱
智通财经网· 2025-08-11 10:41
数据中心业务 - 英伟达第二季度财报焦点集中在数据中心业务 该板块是公司销售高性能AI处理器实现营收的核心 [1] - 数据中心业务不仅包括芯片销售 还涵盖网络技术产品如NVLink InfiniBand和以太网解决方案 这些技术对芯片通信和服务器互联至关重要 [1] - 上一财年数据中心板块总收入1151亿美元 其中网络业务贡献129亿美元 超过游戏板块的113亿美元 [1] 网络业务表现 - 第一季度网络业务为数据中心板块391亿美元营收贡献49亿美元 随着AI算力扩展需求增长 该业务将持续扩张 [2] - 网络业务占数据中心营收11% 但增长速度极快 被Deepwater Asset Management称为最被低估的部分 [2] - 网络技术包括NVLink(连接GPU) InfiniBand(连接服务器节点)和以太网(前端网络) 三种网络对构建AI计算机均不可或缺 [2][3] 技术需求与行业趋势 - AI推理需求增强 企业开发大型AI模型和自主代理功能时 GPU间同步要求提高 网络技术对推理性能至关重要 [3][4] - 行业初期误认为推理算力需求低 但实际运行中高性能系统能显著提升推理速度和处理能力 网络技术与CPU GPU DPU耦合对推理体验起关键作用 [4][5] - 竞争对手如AMD和云计算巨头(亚马逊 谷歌 微软)研发自有AI芯片 行业组织推出UALink技术挑战NVLink 但英伟达仍保持领先地位 [5]
本周,反转不断
上海证券报· 2025-08-10 23:46
英伟达网络技术业务 - 英伟达2026财年第二财季业绩将于8月27日公布,数据中心业务表现受关注,该业务包括芯片和网络技术 [3] - 网络业务由NVLink、InfiniBand和以太网解决方案组成,支持AI应用程序运行,上一财年收入129亿美元,超过游戏业务114亿美元 [3] - 网络业务占数据中心收入11%,但正快速增长,被描述为"像火箭一样" [3] - AI技术进步和产业协同推动网络业务从边缘角色成为黑马 [3] 星链肯尼亚市场 - SpaceX旗下"星链"在肯尼亚吸引力下降,用户因高成本和低速度转向本地供应商 [5] - 星链2023年进入肯尼亚市场,针对企业客户,但第一季度用户减少2000多名,占本地用户群10%以上 [5] - 本地供应商以更快速度和更低价格抢占市场 [5] 巴西石油与矿产政策 - 巴西总统卢拉改变对关键矿产和稀土开发态度,称应保障主权并实现资源转化 [7] - 巴西国家石油公司在亚马逊雨林海岸勘探石油,以挽救石油出口下滑,支撑贸易顺差 [7] - 2024年石油超越大豆成为巴西第一大出口产品,卢拉称石油利润可资助能源转型 [7] - 美国对巴西加征40%关税,巴西寻求形成核心竞争力 [8] 石油市场动态 - 欧佩克夏季增产目标难以实现,市场紧张,部分成员国产能受限 [9] - 伊拉克和俄罗斯弥补过去生产过剩,哈萨克斯坦3月已达最大产能 [9] - 布伦特原油期货上涨至每桶68美元,高于4月58美元低点 [9]
PCIe,狂飙20年
半导体行业观察· 2025-08-10 09:52
近日,PCI-SIG正式发布PCIe 8.0标准,将数据传输速率推高至256GT/s,再次实现带宽翻倍, 这无疑是PCIe技术发展历程中的又一里程碑。 从串行总线革命到每秒256GT的速度突破,PCIe技术用20余年时间重构计算机数据传输格局。在如 今的技术矩阵中,PCIe凭借其特性优势与独特定位,不仅是连接主板与各类扩展卡的桥梁,更在数据 中心、云计算、高性能计算等领域肩负着数据高速流转的重任。 回顾这一发展历程,一系列值得深思的问题浮现: 公众号记得加星标⭐️,第一时间看推送不会错过。 尤其是在高速互联技术不断演进的当下,我们需要深入剖析PCIe的发展脉络,及其独特定位与边界, 探寻其中的答案。 从PCI到PCIe,突破传统互联桎梏 PCIe全称为Peripheral Component Interconnect Express,最初由Intel在2001年提出,是一种高速 串行计算机扩展总线标准,用于连接主板和高速外围设备,后续交由PCI-SIG(PCI特殊兴趣组织) 认证后,该 标准被命名为"PCI-Express" ,简称"PCIe" ,旨在替代旧的PCI 、PCI-X 和AGP 总线标 准。 在P ...
AI 网络Scale Up专题会议解析
傅里叶的猫· 2025-08-07 22:53
加速器市场格局与Scale Up趋势 - 加速器市场分为商用市场(NVIDIA、AMD、Intel及初创企业)与定制市场(谷歌TPU、亚马逊Tranium、Meta MTIA等超大规模厂商自研芯片),定制加速器市场规模将与GPU市场持平但营收仍向GPU厂商倾斜 [3] - Scale Up网络正从小众走向主流,2025Q2营收首次突破10亿美元,未来将成为网络主流,定制加速器倾向于兼容以太网,NVIDIA则以NVLink为核心 [3] - AI网络从x86时代"单网络"发展为"双网络",当前处于多网络拓扑并存阶段,但最终可能收敛至1-2种,以太网被普遍认为是长期主流 [4] 技术路线竞争与演进 - Scale Out中以太网与InfiniBand的竞争已明确以太网胜出,Scale Up中NVLink与以太网竞争形成,NVLink短期占优但以太网将逐步扩大份额并成为主流 [5] - PCIe、UA Link等技术受限于规模与生态难以撼动以太网地位 [6] - Scale Up发展将经历三个阶段:单机架域依赖铜缆→多机架解决方案→硅光子学实现超大带宽扩展,市场规模存在显著上修空间(NVIDIA相关收入从1亿到10亿美元仅用一个季度) [7] Scale Up技术定义与性能 - Scale Up核心是GPU间缓存一致性网络,提供远高于Scale Out的带宽(Scale Out仅为其1/10),目前局限于单服务器或单机架但未来将扩展至多机架,长期市场规模有望超过Scale Out [8] - Scale Up与Scale Out存在显著代差:Broadcom产品中Scale Up延迟约250ns仅为Scale Out(600-700ns)的1/3,NVLink在速度与延迟上最优,以太网次之 [9] - Scale Up以太网产品价格预计为Scale Out的2-2.5倍(Scale Up sled约2.5万美元 vs Scale Out Tomahawk 5类产品6000-1万美元) [9] 厂商技术路径与市场潜力 - NVIDIA以NVLink为核心但长期将融入以太网生态,AMD押注UA Link但多机架扩展能力可能落后,超大规模厂商自研芯片未来将向以太网收敛 [13] - 当前AI网络Scale Up总潜在市场规模约600-700亿美元且可能上修至1000亿美元,以太网相关厂商(Broadcom、Cisco、Marvell等芯片厂商及Arista、Celestica等设备厂商)将成为主要受益者 [12] - Scale Up交换机长期将从独立设备转向嵌入机架,白盒设备因需兼容多厂商芯片复杂度提升可能呈现多厂商共存格局 [13]
NVLink, UALink, NeuronLink, SUE, PCIe – Astera Labs Switch
2025-08-05 16:17
行业与公司 - 行业涉及**AI加速器芯片互联协议**与**数据中心交换机芯片**市场[1][2] - 公司为**Astera Labs (ALAB US)**,专注于PCIe中继器/交换机芯片及定制化互联解决方案[1][12] --- 核心观点与论据 **1 互联协议技术对比** - **NVLink (NVIDIA)** - 单端信号SerDes技术节省80%芯片面积或提升80%带宽密度[3][4] - 速度达900GB/s单向(Blackwell GPU),但仅支持576节点直连,需光纤扩展[5] - **UALink (AMD主导)** - 差分信号SerDes抗干扰强,支持1,024节点铜缆直连[5] - 双版本:UALink 200G(GPU直连专用)与128G(兼容PCIe Gen7,支持异构计算)[6][9] - **SUE (Broadcom)** - 基于以太网物理层但简化协议栈,传输效率高但异构扩展性弱于UALink[10] - **NeuronLink (AWS)** - 改良版PCIe,支持超频,Trainium 2.5采用NeuronLink3(PCIe5),Trainium 3升级至NeuronLink4(PCIe7)[13][15][23] **2 Astera Labs增长驱动** - **AWS Trainium系列合作** - **Scorpio-X交换机芯片**: - Trainium 2.5 Teton PDS机架采用PCIe6交换机(160通道,$1,120/片),每百万芯片价值$5.5亿[17][19] - 配套小交换机芯片(64通道,$400/片),总价值达$17.5亿/百万芯片[20][22] - Trainium 3 Teton Max机架升级至PCIe7/UALink 128G双模交换机(320通道,$2,560/片),总价值$33亿/百万芯片[23][26] - **未来布局**:Trainium 4可能合作设计I/O芯片,潜在收入$1.5亿/百万芯片[27][28] - **AMD MI400系列合作** - 开发UALink 200G交换机(432通道,$3,456/片),每百万GPU价值$5.76亿[29][32] - 预计2026年Q1流片,Q4量产[12][31] **3 关键数据与单位换算** - **带宽计算**: - Trainium 2.5单芯片带宽640GB/s,机架总需求40,960GB[17] - MI400单GPU带宽1,800GB/s,机架总需求129,600GB[32] - **价格假设**: - PCIe6交换机$7/通道,PCIe7升至$8/通道[19][26] - UALink 200G交换机ASP $8/通道[32] --- 其他重要细节 - **技术实现差异**:UALink 128G通过共享PCIe Gen7 PHY层实现双模切换[7] - **时间节点**: - AWS Trainium 2.5 Teton PDS机架2025年Q4推出[16] - AMD Helios机架2026年Q4量产[12][31] - **竞争壁垒**:Astera Labs因同时具备中继器/交换机设计能力被AWS选为I/O芯片合作伙伴[27][28] --- 潜在风险与机会 - **技术替代风险**:NVIDIA NVLink在带宽密度优势可能持续压制对手[4][5] - **市场机会**:PCIe7/UALink双模芯片或成异构计算关键解决方案[9][23]
规模化人工智能网络数据解读_对规模化人工智能及首选技术的关键预测-Hardware & Networking_ Scale-Up AI Networking in Numbers_ Key Forecasts from 650 Group for Scale-Up AI and Technology of Choice
2025-08-05 11:20
行业与公司 - 行业:AI Networking(人工智能网络) - 公司:650 Group(行业研究机构)、J P Morgan(投资银行)[1] 核心观点与论据 1. **AI Networking市场增长** - 2024年AI Networking总市场规模(TAM)为150亿美元,预计2029年增长至650亿美元,年复合增长率(CAGR)为34%[1] - 增长动力来自前端(front-end)和后端(back-end)收入的同步增长,其中后端收入增长同样强劲[1] 2. **Scale-up AI Networking的快速增长** - 2024年Scale-up AI Networking市场规模为4亿美元,预计2029年增长至210亿美元,CAGR为123%[3] - 2029年Scale-up收入将占后端AI总收入的43%(2024年仅占3%)[3][6] - 长期来看(2030年后),Scale-up收入预计将超过Scale-out,主要受多机架技术(multi-rack)和硅光子学(silicon photonics)等高带宽技术推动[6] 3. **Scale-out AI Networking的稳健增长** - 2024年Scale-out收入为117亿美元,预计2029年增长至288亿美元,CAGR为20%[3] - 以太网(Ethernet)将成为Scale-out市场的主导技术,而Infiniband增长有限[15] 4. **技术趋势:以太网的普及** - **Merchant ASICs**(如Nvidia GPU、AMD和Intel产品):预计从2024年的440万单位增长至2029年的1190万单位,CAGR为22%,未来将转向以太网连接[9] - **Custom ASICs**(如Google TPU、Amazon Trainium):预计从2024年的500万单位增长至2029年的1070万单位,CAGR为17%,新架构(如Meta MTIA、Microsoft Maia)将直接采用以太网[9] - NVLink目前占据Scale-up市场的96%份额,但预计2029年份额降至63%,以太网份额将从0%提升至31%[11] 5. **市场机会与风险** - 以太网供应商因在Scale-up和Scale-out市场的双重增长而处于有利地位[15] - NVLink的垂直整合可能限制灵活性,而以太网因操作简单性和多厂商互操作性成为未来首选[11] 其他重要内容 - 数据单位:市场规模以十亿美元($ in Billions)为单位[2][7] - 图表引用:包括AI Networking市场分前端/后端收入(Figure 1)、Scale-up/Scale-out后端市场(Figure 2)、Merchant/Custom ASICs(Figure 3)、Scale-up技术分布(Figure 4)等[5][8][10][12][16] - 免责声明:J P Morgan与研究对象存在业务关系,可能影响报告客观性[4]
博通用一颗芯片,单挑英伟达InfiniBand 和 NVSwitch
半导体行业观察· 2025-07-18 08:57
InfiniBand技术发展与应用 - InfiniBand最初作为跨设备主流结构失败后,在超级计算机领域找到定位,成为高性能、低延迟互连技术,主要得益于远程直接内存访问(RDMA)技术[3] - Nvidia五年前以69亿美元收购Mellanox Technologies,部分原因是预见到InfiniBand在连接GPU服务器节点以协作训练AI模型中的关键作用[3] - InfiniBand在传统高性能计算(HPC)市场份额有限,但大型语言模型和生成式AI的兴起将其推向后端网络新高度[4] Nvidia的GPU互连技术 - Nvidia开发NVLink端口和NVSwitch交换机,使多个GPU内存集群化,在DGX-2系统中实现16个V100 GPU共享HBM内存,呈现为单一2 petaflops FP16性能设备[4] - NVLink技术扩展到GB200 NVL72等机架级系统,为AI服务器节点构建提供显著优势[4] 博通挑战InfiniBand的以太网方案 - 博通开发Tomahawk Ultra以太网交换机ASIC,目标取代InfiniBand在HPC和AI集群的应用,同时兼具内存结构功能[5] - Tomahawk Ultra实现250纳秒端口到端口延迟,770亿PPS吞吐量,51.2 Tb/秒总带宽,性能接近InfiniBand[12] - 采用优化以太网报头技术,将标准46字节报头压缩至10字节,提升传输效率[15] 技术性能对比 - InfiniBand历史延迟数据:从2001年300纳秒(SDR)降至2015年86纳秒(EDR),但近年因信号处理开销增加,NDR/XDR延迟回升至240纳秒[10][11] - InfiniBand交换机吞吐量演进:从2015年70亿PPS(7.2 Tb/秒)提升至2021年66.5亿PPS(25.6 Tb/秒)[12] - 博通Tomahawk Ultra在相同小数据包条件下,PPS是Tomahawk 6的两倍,延迟仅为后者1/3[12] 关键技术突破 - 引入链路层重传(LLR)和基于信用的流量控制(CBFC)技术,使以太网表现更接近无损传输,避免传统拥塞处理导致的性能下降[16][18][20] - 实现网络内集体操作功能,这是取代InfiniBand的关键特性,类似Nvidia的SHARP功能[13][23] 市场影响与竞争格局 - 博通Tomahawk Ultra不仅针对InfiniBand,还挑战Nvidia的NVSwitch和新兴UALink标准,可能成为GPU互连替代方案[26] - AMD计划在"Helios"系统中通过以太网隧道传输UALink协议,显示行业对以太网方案的认可[29] - Tomahawk Ultra样品已推出,预计2026年上半年上市,支持铜缆/光纤多种连接方式[29]
Can Growing Adoption of Tomahawk Ultra Boost Broadcom's AI Revenues?
ZACKS· 2025-07-18 01:50
博通Tomahawk Ultra芯片与AI收入增长 - 公司最新Tomahawk Ultra以太网交换机是AI收入增长的关键催化剂 随着AI和高性能计算(HPC)基础设施需求激增 该芯片的采用将显著提升AI收入 2025财年第二季度AI收入同比增长46% [1] - Tomahawk Ultra针对超大规模客户和企业客户对高带宽、低延迟互连的需求 提供基于标准的灵活解决方案 [2] - 芯片技术优势包括51.2Tbps吞吐量 每秒770亿数据包处理能力 250纳秒超低延迟 支持1,024个加速器连接 性能超越英伟达NVLink [3] 技术兼容性与生态系统整合 - 芯片与上一代Tomahawk 5引脚兼容 客户可轻松升级无需重新设计系统 加速了超大规模客户和OEM厂商的采用 [4] - 通过将Tomahawk Ultra与Jericho路由器和定制AI芯片组合整合 公司正成为主要AI基础设施提供商 [5] 行业竞争格局 - 英伟达凭借GPU性能优势和CUDA-NVLink生态系统主导AI芯片市场 垂直整合架构带来卓越性能扩展性和开发者粘性 云和互联网巨头的强劲需求持续推动其增长 [6] - AMD通过EPYC CPU和Instinct GPU挑战博通 向微软、Meta和AWS等超大规模客户供货 AI数据中心收入同比激增57% 在x86处理器和半定制芯片领域扩大AI影响力 [7] 股价表现与财务估值 - 博通年内股价回报率达20.9% 高于半导体行业15.6%的涨幅 [8] - 公司远期市销率达18.41倍 显著高于行业平均8.75倍 价值评分为D级 [11] - 2025财年第三季度每股收益预期1.66美元 30天内未变动 同比增长33.87% 2025财年全年每股收益预期6.64美元 较30天前上调1美分 同比增长36.34% [14] - 当前季度(2025年7月)至下一财年(2026年10月)每股收益预期分别为1.66/1.81/6.64/8.27美元 90天内2026财年预期从7.84美元上调至8.27美元 [15]
英伟达250529
2025-07-16 14:13
纪要涉及的公司 NVIDIA 纪要提到的核心观点和论据 1. **数据中心业务** - **营收增长**:数据中心营收达390亿美元,同比增长73%,主要得益于AI工作负载向推理的强劲转变以及AI工厂建设的推动[2]。 - **产品表现**:Blackwell推动数据中心营收增长,本季度贡献近70%的计算收入,从Hopper的过渡基本完成;GB200 NBL实现架构变革,制造良率显著提高,机架出货量强劲[3]。 - **市场需求**:推理需求急剧增长,如Microsoft在Q1处理超100万亿个token,同比增长五倍;推理服务初创公司使用B200使token生成率和收入大幅提升[4]。 - **产品路线图**:GB300系统本月开始在主要CSP抽样,预计本季度晚些时候投入生产;公司致力于年度产品节奏,路线图延伸至2028年[3]。 2. **中国市场影响** - **出口管制**:4月9日美国政府对H20实施新出口管制,无宽限期处理库存;Q1确认46亿美元H20收入,同时因库存减记和采购义务确认45亿美元费用,无法发货25亿美元收入[2]。 - **市场规模**:预计中国AI加速器市场未来将增长至近500亿美元,失去该市场将对业务产生重大不利影响,有利于竞争对手[2]。 3. **游戏和AI PC业务** - **营收情况**:游戏营收创纪录达38亿美元,环比增长48%,同比增长42%;AI推动PC和游戏变革,GeForce用户基数达1亿[8]。 - **产品推出**:本季度推出支持Microsoft Copilot Plus的AI PC笔记本电脑;GeForce RTX 5060和5060 Ti桌面和笔记本电脑上市;Nintendo Switch 2采用NVIDIA技术提升游戏性能[8][9]。 4. **专业可视化业务** - **营收表现**:营收5.09亿美元,环比持平,同比增长19%;关税相关不确定性暂时影响Q1系统,预计Q2营收将恢复增长[9]。 - **产品创新**:DGX Spark和DGX Station将AI超级计算机功能集成到桌面,分别提供高达1 petaflop和20 petaflop的AI计算能力;Omniverse与领先软件平台集成加深,在工业运营中应用广泛[9]。 5. **汽车业务** - **营收情况**:营收5.67亿美元,环比下降1%,同比增长72%,增长得益于自动驾驶业务的增长和强劲的终端需求[10]。 - **合作项目**:与GM合作构建下一代车辆、工厂和机器人;为Mercedes - Benz提供全栈解决方案;推出用于人形机器人的基础模型Isaac Group N1和Cosmo World Foundation models[10]。 6. **网络业务** - **营收增长**:Q1网络业务营收环比增长64%至50亿美元,客户利用平台扩展AI工厂工作负载[6]。 - **产品优势**:NVLink Compute Fabric第五代带宽是PCIe Gen5的14倍,Q1出货量超10亿美元;Spectrum X营收年化超80亿美元,本季度新增Google Cloud和Meta客户;推出的Spectrum X和Quantum X硅光子交换机提升AI工厂扩展能力[7]。 7. **财务展望** - **营收预期**:第二季度总营收预计为450亿美元,上下浮动2%,各平台预计实现适度环比增长;数据中心业务中,Blackwell的持续增长将部分抵消中国市场营收下降[11]。 - **利润率**:GAAP和非GAAP毛利率预计分别为71.8%和72%,上下浮动50个基点;预计Blackwell盈利能力提升将推动毛利率适度环比改善[11]。 - **费用**:GAAP和非GAAP运营费用预计分别约为57亿美元和40亿美元;预计2026财年全年运营费用增长处于30%左右[11]。 - **其他**:GAAP和非GAAP其他收入和费用预计约为4.5亿美元;GAAP和非GAAP税率预计为16.5%,上下浮动1%[12]。 其他重要但是可能被忽略的内容 1. **出口管制影响**:出口管制促使中国创新和规模发展,屏蔽中国芯片制造商与美国竞争会削弱美国地位;公司虽在探索有限竞争方式,但Hopper已无法在中国市场使用[13]。 2. **开源AI价值**:中国的DeepSeek和QN等开源AI模型在全球获得关注,推理AI推动推理需求激增;美国平台应支持与全球开发者合作,确保成为开源AI首选平台[14]。 3. **美国本土制造**:TSMC、Spill和Amcor等在亚利桑那州投资建设工厂,公司与Foxconn、Wistron合作在美国建设AI超级计算机工厂;公司为鼓励投资做出长期采购承诺[14][15]。 4. **AI扩散规则**:特朗普总统撤销AI扩散规则,提出新政策促进美国AI技术与可信伙伴合作;宣布在沙特阿拉伯和阿联酋的AI基础设施项目投资[15]。 5. **推理业务需求**:Grace Blackwell NVLink 72是推理AI的理想引擎,与Hopper相比,速度和吞吐量提高约40倍,可降低成本并提高响应质量[17]。 6. **企业AI发展**:企业AI准备起飞,RTX Pro企业AI服务器可运行企业和AI应用;企业IT包括计算、存储和网络,公司将三者整合推向市场[25]。 7. **工业AI机遇**:全球制造业回流和新工厂建设为Omniverse、AI和机器人技术带来机遇,每个工厂都将配备AI工厂[26]。 8. **网络平台优势**:公司有NVLink、SpectrumX、InfiniBand和Bluefield四个网络平台,Spectrum X提高以太网在集群中的利用率,从50%提升到85% - 90%[27][28]。
高盛:专家网络系列_ 2025 年 7 月数据中心及网络设备展望
高盛· 2025-07-16 08:55
报告行业投资评级 - 截至2025年7月1日,高盛全球投资研究对2968只股票给出投资评级,全球范围内买入、持有、卖出评级占比分别为49%、34%、17% [12] 报告的核心观点 - AI基础设施资本支出将保持强劲,随着越来越多二级云服务商和大型企业加入,数据中心设备客户基础将更多元化;到2026年800G交换机过渡将继续占主导,以太网最终有望参与扩展网络机会;网络硅多样性将使思科和瞻博受益;对1.6T数据中心交换市场份额的担忧可能有些夸大;园区交换和无线将受益于AI升级周期 [2] 根据相关目录分别进行总结 数据中心设备支出 - 数据中心设备支出在更多云服务商间实现多元化,预计2024 - 2029年云服务提供商资本支出复合年增长率约为18%,到2029年将达到约9250亿美元;超大规模、二级云服务提供商和主权垂直领域支出将保持强劲,更多云服务商年资本支出将超50亿美元,有助于设备供应商客户基础多元化;超大规模企业在夏秋评估资本支出计划,亚洲和中东主权AI计划表现出相对优势;超大规模企业倾向于选择一流网络供应商,二级云服务提供商偏好全栈解决方案,企业市场由渠道商服务 [3] 800G/1.6T交换过渡 - 虽然AI企业网络速度过渡阶段不同,但到2026年800G过渡将继续占主导,1.6T仍属小众;随着AI构建复杂度增加,网络供应商收入确认时间延长,以往发货后1 - 2个季度确认收入,现在可能需2 - 4个季度;以太网虽在横向扩展架构中被广泛接受,但在纵向扩展网络中占据主导还需时间,目前该领域由NV Link主导 [5] 人工智能工作负载中的交换ASIC多样性 - 650集团认为网络硅供应商多样性对AI更重要,思科和瞻博的数据中心交换ASIC有获取市场份额的机会;思科超90%的产品组合已过渡到自有交换ASIC [5]