Workflow
Ultra Ethernet
icon
搜索文档
Nokia strengthens leadership in AI-ready data center networks with successful end-to-end Ultra Ethernet test across data center switch family
Globenewswire· 2025-10-01 15:00
Press Release Nokia strengthens leadership in AI-ready data center networks with successful end-to-end Ultra Ethernet test across data center switch family AI workloads place new demands on data center networking infrastructure, requiring exceptionally low latency, zero packet loss, and vast bandwidth at extreme-scale.New Ultra Ethernet Transport (UET) layer addresses complex demands of High-Performance Computing (HPC)/AI.Successful end-to-end test of UET traffic across Nokia’s data center switches verifies ...
英伟达InfiniBand,迎来新对手
半导体芯闻· 2025-06-10 17:52
核心观点 - Cornelis Networks推出400Gbps CN5000系列交换机和网卡,正面对抗Nvidia的InfiniBand技术,目标市场包括超级计算机、HPC集群和AI领域 [1][2] - CN5000系列在性能上宣称优于Nvidia InfiniBand,包括2倍消息传输速率、35%延迟降低和30%仿真时间提升,同时强调价格优势 [7][11] - 公司计划2025年推出800Gbps CN6000系列,2027年推出1.6Tbps CN7000系列,并逐步整合Ultra Ethernet技术 [13][16] 产品技术细节 CN5000系列规格 - **超级网卡**:提供1-2个400Gbps端口(PCIe 5.0限制),功耗15-19瓦(风冷/液冷),需专用网卡接入Omni-Path架构 [4] - **交换机**: - 1U高48端口交换机,总带宽19.2Tbps [4] - Director级交换机含576端口(230.4Tbps),重272公斤,功耗22千瓦,采用18模块机箱设计(12叶+6脊节点) [4][5] - **扩展性**:支持超50万终端节点集群,但48端口设计需大量设备(如12.8万GPU需13,334台交换机) [8][10] 与竞品对比 - **带宽劣势**:CN5000交换机48端口 vs Nvidia Quantum-2的64端口(400Gbps),且Nvidia即将推出144端口800Gbps Quantum-X [7] - **拓扑效率**:相同GPU规模下,Nvidia InfiniBand需约10,000台交换机,以太网方案(如Broadcom Tomahawk 5)仅需5,000台 [9][10] - **延迟优势**:Cornelis称其交换机延迟显著低于以太网和InfiniBand,多跳数影响较小 [11] 市场战略与未来规划 - **价格策略**:强调性价比,试图以成本优势抵消Nvidia的技术领先 [7][11] - **技术路线**: - 2025年CN6000支持800Gbps,兼容PCIe 6.0 CPU,并实现与以太网互通 [13] - 2027年CN7000支持1.6Tbps,全面整合Ultra Ethernet协议 [16] - **行业合作**:参与Ultra Ethernet联盟(UEC),但保持独立技术演进,优先优化Omni-Path架构 [15][16] 行业竞争动态 - **以太网威胁**:Broadcom等厂商通过Tomahawk系列实现接近InfiniBand的性能,超大规模集群已采用以太网方案 [12][13] - **应用场景**:Cornelis强调网络设计需匹配实际应用性能,而非单纯追求参数,尤其针对AI训练的数据密集型任务优化 [11][12]
Arista Networks (ANET) FY Conference Transcript
2025-05-13 23:12
纪要涉及的公司和行业 - **公司**:Arista - **行业**:硬件和网络行业 纪要提到的核心观点和论据 AI业务 - **业务分类**:分为“Networking for AI”和“AI for networking”两类,前者构建高速、大规模、低延迟以太网链路产品,支持云客户和企业客户;后者利用AIML辅助进行网络可观测性、安全性和根本原因分析[4]。 - **投资原因**:2022年ChatGPT发布和OpenAI与微软合作后,看到后端网络机会,通过超以太网联盟将孤立技术迁移到以太网,开发相关产品,良好的扩展网络可提高GPU利用率,避免浪费资金[7][8][10]。 - **市场规模**:数据中心和云市场、企业和园区市场、AI市场均为202.5亿美元机会,整体总潜在市场(TAM)达700亿美元,非AI市场规模为500 - 600亿美元,各市场间存在协同效应[11]。 - **产品差异化**:软件栈是重要差异化因素,基于开放网络原则和Linux,有发布 - 订阅网络数据湖模型等功能,适用于云和AI;AI产品还有独特差异化,需更关注尾延迟、工作流多样性、流量模式等,且能将能力延伸到主机[14][16][18]。 - **客户拓展**:谷歌和亚马逊自建内部数据中心网络,但AI发展为Arista带来数据中心互连等外围业务机会[22]。 非AI业务 - **市场规模**:非AI业务是公司最大市场,包括传统云市场、企业和园区市场,与AI业务存在协同关系[11]。 - **产品差异化**:Arista交换机在传统云市场已有明确差异化,软件栈同样适用于非AI业务[14]。 白盒与二级云市场 - **白盒情况**:白盒主要存在于超大规模客户中,Arista与白盒共存,在某些情况下合作,同时保持在脊柱层的领先地位,为客户提供成本效益和自动化优势[24][26][27]。 - **二级云市场**:Arista在二级云市场和企业客户业务进展良好,处于早期阶段,规模小于大型云或AI相关部署,客户常采用非NVIDIA GPU配置以实现差异化[29]。 芯片与光学技术 - **芯片差异化**:Jericho芯片是价值溢价产品,具有虚拟输出排队架构和高度差异化缓冲,适用于处理AI中的大规模拥塞管理,80%用于大型集群、云和AI部署的脊柱层;部分客户在较小配置中使用Tomahawk芯片,但需更多电缆和光学器件[30][32][34]。 - **光学技术**:Arista专注于网络连接,支持可插拔光学器件,具有系统级优势,如安全性、可靠性和故障排除能力;对LPO、LRO等技术持开放态度,可节省三分之一电力;认为可插拔光学器件在可靠性和可制造性方面更优,对共封装光学器件会研究其优势并考虑采用;不认为光电路交换机是主流技术[36][38][40]。 财务与管理 - **财务指引**:第一季度表现出色,第二季度指引高于市场预期,全年指引因关税情况待定,等待7月9日互惠关税结果后更新;预计毛利率为60 - 62%,第二季度运营利润率提高到46%,供应链涉及墨西哥、马来西亚、越南和中国,部分有USMCA豁免[50][51][53]。 - **管理团队**:认为管理团队已达到稳定状态,近期变动是因财务成功和人员老化导致部分人员退休或离职;新团队成员年轻且经验丰富,为未来十年发展奠定基础,不排除引入新领导者,公司文化独特,注重工程、客户和质量[56][57][58]。 合作与竞争 - **合作模式**:在工程和创新方面倾向独立完成,认为自身实力强;在解决客户问题时会与经销商、合作伙伴、技术合作伙伴甚至竞争对手合作,在校园和企业市场加强与经销商的合作[65][66][67]。 - **竞争壁垒**:新公司进入市场需有差异化,Arista曾花五年构建软件栈并与供应商合作实现差异化;白盒业务是低利润率的系统集成业务,与Arista的高附加值业务不同[68][69]。 企业市场机会 - **数据中心市场**:从较小规模起步,逐步发展,与现有竞争对手竞争[70]。 - **校园市场**:疫情后从休眠状态转变为活跃状态,需求包括无线和有线平等、自动化、安全和分支网络等,Arista有更多机会[71]。 其他重要但是可能被忽略的内容 - 客户使用Arista平台可将88,000条命令和配置的处理时间从数天甚至数月缩短至37分钟[28]。 - 安装数万个GPU时,客户需引入一千人进行电缆和光学管理[34]。