SerDes

搜索文档
重要芯片技术,常被忽视
半导体行业观察· 2025-07-19 11:21
物理层(PHY)的核心作用 - 物理层是OSI七层模型的基础组件,负责处理比特、字节和信号的物理传输,包括无线电、电线、光纤等介质[3] - 物理层已成为数据中心、AI和高性能计算的关键推动者,需满足海量带宽、超低延迟和能效需求[3] - 行业从二进制逻辑转向复杂物理设备时面临自然限制,如状态转换延迟和背景噪声影响信道容量[3] 物理层标准与应用 - 物理层标准多样化,包括USB、PCIe、以太网等,各标准针对特定场景设计,组合使用会增加成本[4] - HDMI与DisplayPort的案例显示,物理层组合需权衡SoC成本与功能需求,高端市场需多协议支持[5] - 标准制定允许供应商差异化竞争,同时降低系统功耗和成本[4] 低功耗与高带宽需求 - 移动设备、AR/VR、物联网等领域需超低功耗物理层以控制散热,否则影响产品商业化[6] - 过去20年USB和以太网带宽增长100-200倍,技术从NRZ转向PAM4等调制方式以提升数据速率[7] - AI计算需求推动接口速度升级,PAM4/PAM8等技术成为解决高带宽瓶颈的关键[7] 超高速PHY设计挑战 - 100G以上PHY设计需应对PAM4信令、亚皮秒抖动和信道损耗等尖端技术难题[8] - 工艺技术选择需平衡密度与模拟性能,信号完整性、电源完整性和系统集成成为关键约束[8] - 2.5D/3D封装技术引入中介层等组件,PHY需在硅片和封装层面协同仿真[8] 芯片间通信与3D集成 - UCIe等标准推动芯片间高带宽低功耗互连,3D系统通过中介层技术实现高效分解[9] - 物理层需弥合模拟与数字工程师的协作鸿沟,系统级优化可提升整体性能[10] - 物理层选择需评估数据对称性、通道数量、延迟等参数,并与外部接口兼容[10] 未来趋势与战略意义 - 行业向448G及以上标准演进,芯片分解、光学I/O和AI原生架构加剧技术挑战[11] - PHY从管道转变为战略赋能器,需持续突破技术界限以支持AI/HPC需求[11]
Marvell AI Event 2025:全程深度解读,看ASIC趋势
2025-06-23 10:09
纪要涉及的行业和公司 - **行业**:AI 行业、半导体行业、数据中心行业 - **公司**:Marvell、博通、英伟达、微软、谷歌、亚马逊、Meta、特斯拉、苹果、OpenAI、Cadence、Synopsys、Credo、字节跳动 纪要提到的核心观点和论据 全球 AI 算力需求趋势 - **观点**:今年下半年全球 AI 算力需求将进入推理和训练共振向上阶段,需求周期刚起步 [1][3] - **论据**:此前市场对海外算力及 AI 应用进展判断谨慎,现认知扭转,虽近期海外算力链回调但幅度有限 AI 基础设施建设关键环节 - **观点**:AI 基础设施建设关键环节为计算、存储和互联,互联问题突破难度大 [1][4] - **论据**:计算和存储芯片适用摩尔定律,互联涉及物理材料和连接介质,不完全依赖摩尔定律,如 SerDes 技术方案迭代受限 大厂对 AI 基础设施定制化需求增长原因 - **观点**:大厂对 AI 基础设施定制化需求增长迅速 [1][2][5] - **论据**:大厂业务场景复杂量大、模型架构各异、组网架构不同,推动全品类 AI 基础设施定制化开发 Marvell 公司业务发展情况 - **观点**:Marvell 业务空间提升,XPU 及相关配套产品需求增长 [1][8][9] - **论据**:可触达业务空间从 750 亿美元提升至 940 亿美元,市场空间至少提升 30%;XPU 及配套产品未来几年增速更快,客户数量从 4 个增加到 10 个以上 未来全球 AI 资本开支预测 - **观点**:未来几年全球 AI 资本开支将显著增加 [1][10] - **论据**:客群增加,今年算力需求含推理和训练,预计到 2028 年资本开支规模达 1 万亿至 1.22 万亿美元 数据中心市场规模变化 - **观点**:数据中心市场规模持续增长 [12] - **论据**:2023 年约 2600 亿美元,2024 年增长至 4350 亿美元,2025 年预计接近 6000 亿美元,2028 年预计达 1 万亿美元 定制化计算与配套服务产品增长情况 - **观点**:2024 - 2028 年配套服务产品复合增速更高 [16][17] - **论据**:尽管加速计算芯片增长快,但交换机芯片及其他互联解决方案复合增速更高 互联技术在计算集群中的增长趋势 - **观点**:互联技术在计算集群中增长趋势显著 [18] - **论据**:去年展示互联需求非线性增长,今年 XPU 架构中 interconnect 增长迅速,大集群对互联技术需求远超线性增长 大集群未来发展前景 - **观点**:大集群将重新回归市场,用于训练和推理 [18][19] - **论据**:模型参数量增加,对大规模集群需求增加,如 Meta 和 Deepseek 仍需更大集群 海外 AI 算力链公司估值变化 - **观点**:海外 AI 算力链公司估值可能显著变化 [43][44] - **论据**:过去被视为周期股,估值 10 - 20 倍 PE,若 AI 算力需求持续,收入增速和估值可能维持在 20 倍以上 推理需求对 AI 算力链公司业绩的影响 - **观点**:推理需求持续性决定 AI 算力链公司业绩释放周期 [45] - **论据**:若推理需求强劲,业绩释放周期可能延长,增速拐点可能出现在 2026 年、2027 年甚至更晚 自动化代理对 TOKEN 量和推理需求的影响 - **观点**:自动化代理推动 TOKEN 量加速增长,确保推理需求持续性 [2][46] - **论据**:Agent 任务执行准确率提升至 95%以上,可替代人工操作,在编程等场景显示潜力并渗透不同产品领域 其他重要但可能被忽略的内容 - **OpenAI 资本开支预测**:2023 年 OpenAI 表示 2030 年左右可能需 7 万亿美元资本开支 [11] - **大规模计算集群连接方案**:采用何种连接方案取决于场景和技术成熟度,CPU 方案进展缓慢,明年能否突破需观察台积电、博通等公司进展 [20] - **Marvell 客户订单情况**:拥有 18 个客户订单,包括三个大型 XOX 订单(几十亿美金,交付周期一年半到两年)和九个小型 XPU attached 项目订单(EB 级别,生命周期两到四年) [21] - **全球大型集群发展趋势**:Meta 在 2024 年建立 10 万卡集群,马斯克拥有 34.1 万卡集群,预计 2026 年下半年 XAI 和 OpenAI 率先达百万卡集群水平 [26] - **模型创新对大规模集群需求影响**:推理和预训练模型对大规模集群需求强劲,缩放定律至少支持到 2035 年,Transformer 架构继续使用,模型参数持续增加 [28] - **光模块连接速率作用**:与万卡级大型集群密切相关,去年预判增速基本兑现,市场对海外算力及光模块、PCB 等需求节奏和阶段存在分歧 [29] - **明年市场增速预期**:市场对明年增速回落预期可能过于悲观 [30] - **海外算力链上涨核心矛盾点**:集中在 TOKEN 量级上升原因分析,需研究海外与国内 TOKEN 量级差异及驱动因素 [42] - **中国市场与海外市场自动化代理应用差距影响**:中国市场对自动化代理接受度低,投资者预期保守,若跟上趋势提高渗透率,有助于提升国内相关企业价值 [49]
韦尔股份:持续推进车载模拟芯片产品布局
快讯· 2025-04-30 19:51
公司业务进展 - 公司持续推进车载模拟芯片产品布局,包括CAN/LIN、SerDes、PMIC、SBC等多款产品,近期在加速验证导入过程中 [1] - 公司模拟解决方案业务去年实现营业收入14.22亿元,较上年增加23.18% [1] - 车载模拟IC销售收入较上年增加37.03%,占公司模拟解决方案业务收入的14% [1] 业务增长点 - 车载模拟IC成为模拟解决方案业务的新增长点 [1]
一文看懂,什么是Serdes
半导体行业观察· 2025-04-20 11:50
如果您希望可以时常见面,欢迎标星收藏哦~ 来源:内容来自Hack电子 ,谢谢。 一、SerDes简要介绍 1、概述 SerDes是SERializer(串行器)/DESerializer(解串器)的简称,是一种主流的时分多路复用 (TDM)、点对点(P2P)的串行通信技术。发送端将多路低速并行信号转换成高速串行信号,经 过传输媒体(光缆或铜线),在接收端高速串行信号重新转换成低速并行信号。这种点对点的串行 通信技术充分利用传输媒体的信道容量,减少所需的传输信道和器件引脚数目,提升信号速度,从 而大大降低通信成本。 随着电子行业技术的发展,特别是在传输接口的发展上,传统并行接口的速度已经达到一个瓶颈, 取而代之的是速度更快的串行接口,于是原本用于光纤通信的SerDes技术成为了高速串行接口的 主流。串行接口主要应用了差分信号传输技术,具有功耗低、 抗干扰强,速度快的特点,最高传 输速率可达10Gbps以上。 在SerDes流行之前,芯片之间是通过系统同步或源同步并行接口来传输数据的。SerDes的优点: 更少IO数量,更小封装,更少走线,更低成本;有效降低电磁干扰,有效降低噪声和串扰。 SerDes的劣势:系统 ...
他们,能威胁英伟达吗?
半导体行业观察· 2025-03-10 09:20
行业趋势 - Nvidia在AI训练和推理领域占据主导地位,但超大规模计算公司和云构建商正在开发自研XPU以降低对Nvidia的依赖 [1] - 超大规模计算公司和云构建商正在开发基于Arm的CPU和矢量/张量数学引擎,用于处理AI工作负载 [1] - Broadcom和Marvell通过提供设计支持和IP模块(如SerDes、PCI-Express、内存控制器)参与定制芯片开发 [1] 公司合作与市场动态 - Marvell与AWS、Google、Meta和Microsoft合作开发定制AI加速器(如Inferentia 2、Trainium 2、Axion Arm CPU等) [2] - Broadcom与Google、Meta、ByteDance合作开发AI加速器(如TPU、MTIA),并传闻与Apple和OpenAI合作 [2] - 超大规模客户要求定制XPU的成本必须显著低于传统CPU/GPU方案 [3] 财务表现 - Broadcom 2025财年Q1销售额1492亿美元(同比+247%),利润55亿美元(同比+42倍) [5] - Broadcom半导体解决方案部门营收821亿美元(环比+111%),AI相关营收412亿美元(同比+77%) [8][11] - Marvell 2025财年Q4销售额182亿美元(同比+199%),净收入2亿美元(去年同期亏损393亿美元) [16] 技术进展 - Broadcom正在流片基于2纳米工艺和35D封装的AI XPU,性能达10,000万亿次浮点运算/秒 [13] - Broadcom推出"Tomahawk 6"以太网交换机ASIC,带宽超100 Tb/秒 [13] - Marvell数据中心业务营收137亿美元(同比+785%),AI相关营收852亿美元(同比+39倍) [18][19] 未来展望 - Broadcom预计2025财年Q2 AI营收44亿美元(同比+44%) [12] - Marvell预计2026财年AI营收超30亿美元,可能达35亿美元 [18][20] - 行业需求呈现周期性特点,超大规模客户倾向于批量采购以优化成本 [4]