Bunch of Wires (BoW)

搜索文档
Chiplet互连之争:UCIe何以胜出?
半导体芯闻· 2025-05-16 18:08
UCIe 2.0标准特性分析 - UCIe 2.0版本因包含大量新增特性被质疑过于重量级,但多数特性为可选实现,设计者可根据需求定制[1][2] - 标准定义了从汽车到高性能计算、AI等多领域适用方案,但IP提供商需应对支持所有特性的挑战[1] - 90%的当前应用采用封闭系统设计,仅10%用户为未来开放生态提前部署可选功能[6] Chiplet市场现状与愿景 - 当前先进封装产品主要由资金雄厚公司内部开发,chiplet多源于分解的SoC模块(如计算核心、缓存)[3] - 长期目标是建立类似软IP市场的通用chiplet市场,实现跨公司硬硅片即插即用[4] - 开放生态需在参数标准化基础上达成共识,UCIe Consortium正制定相关功能以支持未来市场[5][13] UCIe与BoW标准竞争 - BoW被认为更轻量级,允许收发器使用(半双工)和灵活bump布局,单通道仅需1条线路[15][16] - UCIe强制双线路全双工通道,规定bump物理布局以提升兼容性,但牺牲设计自由度[15][16] - 两者理念差异显著:UCIe强调规范统一性,BoW提供类似Arm AMBA总线的架构灵活性[16] 管理功能设计 - UCIe 2.0新增管理特性(如固件下载、错误报告)均为可选,通过主频带或边带接口实现[7][9] - 最小特性集支持盲die启动,强制通道反转等基础功能在定制设计中可省略以降低复杂度[9][10] - 发现功能采用静态枚举而非动态发现,仅需简单寄存器读取确认chiplet配置[11][12] 行业实施动态 - 英特尔等大厂在内部用例中修改UCIe数据链路层以优化性能,显示标准实际应用中的灵活性[14] - 英伟达等公司仍倾向专有接口(如NVLink),因标准化进程慢于专有方案迭代速度[17][18] - IP提供商推出分级UCIe方案(Compliant/Compatible/Custom)以适应不同功耗与性能需求[13]
数据中心互联革命:UALink & 超级以太网正加速崛起
半导体芯闻· 2025-03-18 18:32
文章核心观点 AI和HPC数据中心计算节点需超越芯片或封装获取更多资源,但目前无开放扩展协议,新协议UALink和超级以太网旨在解决纵向和横向扩展通信缺陷,预计2026年底开始出现在数据中心 [1][26] 多种通信任务 - 计算节点容量有限,需依赖其他节点分配问题,通信协议分三类,最低级是芯片到芯片互连,中间通信级别可扩展,UALink在此发挥作用 [3] - UALink可连接主GPU单元,增加带宽、减少延迟,能与任何加速器配合,抽象加速器区别,优化xPU到xPU内存通信 [4] 超越机架 - 机架外资源需通过以太网横向扩展通信,与纵向扩展覆盖范围不同 [5] - 超级以太网建立在传统以太网之上,解决横向扩展问题,加速数据中心以太网 [6] 扩展:一片绿地 - 现有扩展技术由专有解决方案组成,效率低,UALink联盟成立,目标是促进AI加速器操作,由事务层、数据链路层和物理层组成 [8] - UALink针对AI和HPC工作负载优化,不具备PCIe所有功能,但满足特定需求,初始版本为224Gbps和半速版,后续推-128版本,预计不挑战PCIe或CXL [9] - UALink 1.0规范预计下个季度内推出并免费下载 [10] 横向扩展:基于以太网构建 - 以太网广泛应用,但尾部延迟损害性能,通信延迟不固定、不可预测,对AI和HPC工作负载问题严重 [12][13] - 超级以太网联盟针对通信提供强制和可选功能,可通过网络接口卡或结构端点连接,CPU和GPU均可参与 [14][15] 为以太网添加层 - 超级以太网在标准以太网基础上添加第3层和第4层,传输层管理事务语义,减少整体系统延迟,第3层仅用IP未更改 [17] - 传输层在端点实现,源端点决策,接收端点反馈,出现问题数据包发送NACK及诊断信息,源重新选择路径 [17][18] 新功能有助于减少尾部延迟 - 超级以太网通过无序交付、链路级重试、流量控制和数据包喷射减少延迟,部分功能可选,早期网络需交换机升级才有链路级重试功能 [20][21] - 这些功能提供更快传输选项,减少重试次数,虽可能增加名义延迟,但减少尾部延迟,使系统更快开始 [22] - 超级以太网1.0规范预计4月或5月发布,端点创建快,交换机升级慢,UEC保持对协议控制,与多组织合作避免分叉 [23][24] 结论 - AI是杀手级应用,HPC可搭便车,超级以太网允许选择交易语义,两项协议规范2025年上半年推出,经评估后应用到硅片,2026年底可能出现在数据中心 [26]