AI算力集群
搜索文档
腾景科技:公司在OCS全光交换机光学元组件领域的竞争优势主要体现在深厚的技术积淀与稳固的客户基础两个维度
证券日报· 2026-02-12 21:43
公司竞争优势 - 公司在OCS全光交换机光学元组件领域的竞争优势体现在深厚的技术积淀与稳固的客户基础两个维度[2] - 技术积累方面,OCS光交换技术对光学元组件的精度、稳定性及可靠性要求极高,公司产品能满足AI算力集群对核心光交换部件的高可靠性严苛标准,构筑了较强的技术护城河[2] - 客户合作层面,公司较早地参与主要整机厂商的前期研发项目,具备供应链先发优势[2]
特写|万卡集群的“神经枢纽”
新浪财经· 2026-01-20 21:40
行业背景与核心诉求 - AI算力集群正加速向万卡、十万卡级规模迭代,高速互连网络作为算力高效释放的“神经枢纽”,其性能、扩展性与稳定性直接决定集群整体效能 [1][7] - 大规模集群组网需兼顾高带宽、低延迟与无损传输,同时要适配算力指数级增长的扩展需求,还要控制组网成本与故障风险,现有方案难以全面平衡这些核心诉求 [1][7] 公司产品定位与意义 - 中科曙光历经三年攻坚推出scaleFabric,作为国内首款类InfiniBand原生无损RDMA高速网络,精准直击行业难点,为超大规模集群筑牢高效稳定的网络底座 [1][7] - scaleFabric的发布填补了国内原生RDMA网络的技术空白,开启了InfiniBand网络国产化替代的新篇章 [6][12] 产品性能与技术指标 - scaleFabric在带宽与延迟指标上对齐国际主流产品 [3][9] - 其交换芯片端口密度达80口400G,较同类产品提升25% [3][9] - 产品沿用与InfiniBand一致的信用流控及链路层重传机制,实现真正无损传输,相较RoCE网络更适配超大规模智算场景 [3][9] - 产品可做到即插即用,大幅降低用户优化成本 [3][9] 生态兼容性与扩展能力 - scaleFabric提供原生RDMA verbs接口,完美兼容现有InfiniBand应用生态,让并行计算、大模型训练推理等应用无需修改代码即可无缝迁移 [4][10] - 在超大规模扩展能力上,它突破InfiniBand协议五万卡级的局限,单子网支持超十万卡扩展 [4][10] - 通过多轨技术,可实现百万卡级集群部署,契合AI算力指数级增长需求 [4][10] - 该扩展优势已在scaleX万卡超集群中得到验证,支撑系统总算力突破5 EFlops [4][10] 自主创新与成本优势 - 面对高端SerDes IP“卡脖子”困境,公司自研112G PAM4高速SerDes IP,从底层保障复杂环境下的信号可靠性 [6][12] - 针对光模块故障痛点,研发毫秒级链路故障路由恢复技术,且恢复时间不随网络规模增长而延长 [6][12] - 配合数字孪生运维系统,将集群可用性提升至99.99% [6][12] - 依托端口密度优势,其组网成本较InfiniBand降低约30% [6][12] 产业影响与战略 - 公司秉持开放架构理念,向合作伙伴共享技术成果,推动产业链协同创新,加速我国超算与智算产业自主化进程 [6][12]
AI推理狂潮席卷全球 “英伟达挑战者”Cerebras来势汹汹! 估值狂飙170%至220亿美元
智通财经网· 2026-01-14 10:40
公司融资与估值动态 - Cerebras Systems Inc 正在商讨进行一轮约10亿美元的新融资 以支持其与英伟达的长期竞争 [1] - 此轮融资前估值定为220亿美元 较去年9月约81亿美元的估值大幅扩张170% [1][2] - 公司仍计划积极推进在美国的首次公开募股 [1] 公司技术路线与产品性能 - Cerebras Systems 采用“晶圆级引擎”架构 将整个AI模型放在单个超大芯片上 极大提升了推理性能和内存带宽 [4] - 其最新的 CS‑3 系统在运行 Llama 3 70B 推理任务时 比英伟达 Blackwell 架构的 B200 AI GPU 系统快约21倍 同时总体成本和能耗更低 [6] - 该架构在处理大型语言模型推理任务时 可实现比传统AI GPU/AI ASIC更强劲的性能密度和能效比 在某些模型推理中速度可以达到比GPU快20倍或更多 [4][6] 市场竞争格局 - 英伟达在人工智能芯片领域占据高达90%的市场份额 [1][3] - 除Cerebras外 另一家初创公司Etched在新融资中筹集了约5亿美元 估值达到约50亿美元 [5] - 谷歌最新的TPU v7 在特定AI应用场景下 能提供比英伟达Blackwell高出1.4倍的每美元性能 [11] 行业发展趋势与竞争动态 - AI推理需求正呈现每六个月翻一番的极速增长趋势 [11] - 英伟达与AI芯片初创公司Groq达成了一项200亿美元的非独家授权合作协议 以获得其AI推理技术 交易完成后Groq创始人及核心研发团队将加入英伟达 [3][12] - 谷歌明确把其最新TPU代际Ironwood定位为“为AI推理时代而生” 强调性能、能效与性价比 [10] 公司业务与客户 - Cerebras Systems 向Meta Platforms Inc、IBM以及Mistral AI等大型客户提供远程人工智能计算服务 [2] - 公司在很大程度上依赖总部位于阿布扎比的人工智能公司G42的业务 这一深度合作关系已引起美国外国投资委员会的审查 [5] 技术路线对比 - Cerebras的晶圆级架构优势显著于特定推理场景 在通用计算任务部署、AI训练算子以及CUDA生态兼容性方面 英伟达仍具备很大优势 [7] - 英伟达通过“多架构AI算力+巩固CUDA生态+引进更多AI芯片设计人才”来维持其市场主导权 [3] - 谷歌TPU属于AI ASIC技术路线 OpenAI通过谷歌云平台大规模租用TPU的核心动机之一是降低AI推理成本 [10]
泛亚微透:公司的ePTFE电缆绕包材料正在下游客户验证测试中
每日经济新闻· 2025-12-19 20:25
文章核心观点 - 公司控股子公司凌天达的铜缆高速连接产品布局情况是投资者关注焦点,公司回应称其ePTFE电缆绕包材料正处于下游客户验证测试阶段,并致力于拓展该材料在高速连接领域的应用 [2] 行业趋势与需求 - 铜缆高速连接主要用于数据中心内部服务器与交换机、存储器与交换机以及交换机与交换机之间的短距离互联传输场景 [2] - 近年来AI算力集群的规模化需求直接推动铜缆连接增长,机柜内服务器数量增加激发铜缆连接需求 [2] 公司产品与技术布局 - ePTFE电缆绕包带凭借超低介电损耗、卓越机械强度和极端环境适应性,成为5G、数据中心及工业自动化领域高频高速线缆的核心材料 [2] - 公司积极拓展ePTFE材料在铜缆高速连接领域的应用 [2] - 目前公司的ePTFE电缆绕包材料正在下游客户验证测试中 [2] - 公司致力于为客户提供优质的产品和服务 [2]
泛亚微透:目前公司的ePTFE电缆绕包材料正在下游客户验证测试中
证券日报网· 2025-12-19 19:13
行业趋势与市场驱动 - 铜缆高速连接主要应用于数据中心内部服务器与交换机之间、存储器与交换机之间以及交换机与交换机之间的短距离互联传输场景 [1] - AI算力集群的规模化需求直接推动铜缆连接增长 [1] - 数据中心机柜内服务器数量增加激发铜缆连接需求 [1] 公司产品与技术定位 - 公司的ePTFE电缆绕包带凭借超低介电损耗、卓越机械强度和极端环境适应性,成为5G、数据中心及工业自动化领域高频高速线缆的核心材料 [1] - 公司积极拓展ePTFE材料在铜缆高速连接领域的应用 [1] - 目前公司的ePTFE电缆绕包材料正在下游客户验证测试中 [1] - 公司致力于为客户提供优质的产品和服务 [1]
拟购万德溙控制权,美克家居12月18日起停牌
北京商报· 2025-12-17 19:15
公司交易公告 - 美克家居正在筹划通过发行股份及支付现金的方式收购深圳万德溙光电科技有限公司的控制权,并募集配套资金 [1] - 公司股票自12月18日开市起停牌,预计停牌时间不超过10个交易日 [1] - 公司已与交易意向方签署《股权收购意向性协议》,初步确定的交易对方为深圳万德亚盛科技企业(有限合伙),最终交易对方范围尚未确定 [1] 标的公司信息 - 标的公司深圳万德溙光电科技有限公司成立于2018年5月,总部位于深圳 [1] - 公司业务为研发、生产并销售应用于AI算力集群和数据处理中心的全系列高速互连线缆组件及模块 [1] 公司市场表现 - 在公告披露前的12月17日,美克家居股价收跌4.26%,收于2.92元/股 [1] - 公司总市值为41.96亿元 [1]
OCS光交换机:AI算力集群时代的新蓝海 | 投研报告
中国能源网· 2025-12-08 16:09
核心观点 - AI大模型训练对通信带宽、时延和功耗要求极高,OCS凭借其高带宽、低延迟特性成为理想互联解决方案 [1] - OCS是一种基于全光信号的交换设备,相比传统电交换机,具备低延迟、低功耗、高可靠性优势,且支持跨代设备无缝互联 [1] - OCS主要应用于AI算力集群的三大场景:Scale-Up(单节点性能强化)、Scale-Out(多节点协同)和Scale-Across(跨数据中心互联) [1] - 在谷歌TPU集群中,一个包含4096个TPU v4芯片的集群需配备48台136端口的OCS,TPU与OCS比例约为85:1 [1] - 未来TPU v7集群规模扩大至9216芯片时,因采用更高密度的320端口OCS,仍仅需48台,比例提升至192:1,凸显其扩展效率 [1] 市场规模与增长 - 全球OCS光交换机市场规模将从2020年的0.7亿美元增长至2025年的7.8亿美元,年复合增长率达62% [1][2] - 预计到2031年市场规模将达20.2亿美元,2025–2031年复合增长率约17.2% [1][2] - 目前市场竞争集中,2025年前四大厂商占据约69%份额,谷歌、Coherent等为主要参与者 [1][2] 产业链分析 - OCS产业链分为上游核心器件、中游设备集成与下游应用,技术壁垒高 [2] - 上游核心是MEMS微镜阵列等光器件,代表厂商如赛微电子,是产业链技术壁垒最高的环节,价值量占比高 [2] - 中游由国际厂商主导设备集成,如Lumentum,国内光库科技等参与代工与方案定制 [2] - 下游需求则集中于谷歌等巨头的AI数据中心,驱动其在高性能计算中的规模应用 [2] 相关公司分析 - 英唐智控以电子元器件分销为基础,正向半导体设计与制造逐步拓展 [3] - 公司2025年拟收购桂林光隆集成,强化OCS全制程布局 [3] - 英唐智控子公司英唐微技术已具备MEMS微振镜研发与量产能力,产品覆盖4mm、1mm、1.6mm等多种规格,2025年4mm产品已在工业领域实现批量订单 [3] - 赛微电子为国内MEMS工艺开发与晶圆制造领军者,掌握硅通孔、晶圆键合等核心工艺,客户覆盖激光雷达、AI计算等领域 [3] - 2023年起瑞典Silex(原全资子公司)开始量产MEMS-OCS,2025年北京Fab3启动MEMS-OCS小批量试产 [3] - 公司营收中MEMS业务占比达83%,2024年毛利率提升至35.1% [3] - 随着AI算力需求扩张,赛微电子在MEMS微镜阵列等核心部件的工艺优势有望转化为业绩弹性 [3]
华安证券:OCS光交换机有望迎来高速成长期 建议关注赛微电子(300456.SZ)等
智通财经网· 2025-12-08 15:47
行业概览与市场前景 - AI大模型训练对通信带宽、时延和功耗要求极高,OCS凭借其高带宽、低延迟特性成为理想的互联解决方案 [1] - OCS是一种基于全光信号的交换设备,相比传统电交换机,具备低延迟、低功耗、高可靠性的优势,且支持跨代设备无缝互联 [1] - 全球OCS光交换机市场规模将从2020年的0.7亿美元增长至2025年的7.8亿美元,年复合增长率达62% [1][3] - 预计到2031年市场规模将达20.2亿美元,2025–2031年复合增长率约17.2% [3] - 目前市场竞争集中,2025年前四大厂商占据约69%份额,谷歌、Coherent等为主要参与者 [3] 技术应用与效率 - OCS主要应用于AI算力集群的三大场景:Scale-Up、Scale-Out和Scale-Across [2] - 在谷歌TPU集群中,一个包含4096个TPU v4芯片的集群需配备48台136端口的OCS光交换机,TPU与OCS比例约为85:1 [2] - 未来TPU v7集群规模扩大至9216芯片时,因采用更高密度的320端口OCS,仍仅需48台,比例提升至192:1,凸显其扩展效率 [2] 产业链结构 - OCS产业链分为上游核心器件、中游设备集成与下游应用 [4] - 上游核心是MEMS微镜阵列等光器件,是产业链技术壁垒最高的环节,价值量占比高 [1][4] - 中游由国际厂商主导设备集成,国内光库科技等参与代工与方案定制 [4] - 下游需求则集中于谷歌等巨头的AI数据中心,驱动其在高性能计算中的规模应用 [4] 相关公司分析 - **英唐智控(300131.SZ)**:以电子元器件分销为基础,正向半导体设计与制造逐步拓展 [5] - 公司2025年拟收购桂林光隆集成,强化OCS全制程布局 [5] - 子公司英唐微技术已具备MEMS微振镜研发与量产能力,产品覆盖多种规格,2025年4mm产品已在工业领域实现批量订单 [5] - 公司拟通过整合光隆集成的光开关、OCS系统等技术打造OCS全制程平台 [5] - **赛微电子(300456.SZ)**:为国内MEMS工艺开发与晶圆制造领军者,掌握硅通孔、晶圆键合等核心工艺 [5] - 2023年起瑞典Silex开始量产MEMS-OCS,2025年北京Fab3启动MEMS-OCS小批量试产 [5] - 公司营收中MEMS业务占比达83%,2024年毛利率提升至35.1% [5]
思瑞浦:已有多款高价值模拟芯片应用于光模块中
巨潮资讯· 2025-11-12 01:07
公司业务表现 - 光模块相关业务前三季度实现快速增长 [1] - 多家龙头客户份额稳步提升,新客户进入放量阶段 [1] - 在光模块应用中已有多款高价值模拟芯片实现规模化出货 [1] - 核心客户中相关产品份额持续提升 [1] 产品与技术优势 - 光模块链路中模拟芯片承担信号调理、放大与监测等关键功能,直接影响链路性能与功耗水平 [3] - AFE(模拟前端)产品技术壁垒高、价值量大,集成度与指标要求较高,需在高速率与低噪声之间取得平衡 [1][3] - 随着客户需求升级,产品组合正向更高端规格迁移 [3] - 推进与生态伙伴协同验证,围绕驱动、TIA/AFE、电源与监控等器件开展平台化与模块化设计,提升开发效率与兼容性 [3] - 针对不同封装与工艺路线,持续优化参数窗口与可靠性,以加速新品导入与规模化出货 [3] 市场趋势与产品布局 - 400G产品已进入成熟放量阶段,800G加速渗透,头部客户开始批量导入 [3] - 公司同步布局1.6T相关方案,围绕更高带宽、低功耗与小型化开展器件与工艺迭代 [3] - AI算力集群与数据中心扩容驱动高速光互联需求增长,800G与更高规格的上量带动模拟芯片单机价值量提升 [3] 公司战略与运营 - 公司将结合客户需求扩展高价值产品线,完善在高端光模块中的配套能力 [3] - 通过良率与一致性管理、长期供货与质量体系建设,巩固在核心客户的份额并拓展新客户 [3] 行业前景 - 高速光模块代际升级将重塑器件结构与供应格局 [4] - 具备AFE等高价值器件能力的厂商有望获得更高景气弹性 [4] - 思瑞浦若能把握800G放量与1.6T前瞻布局的节奏,产品结构与盈利能力有望改善 [4]
华丰科技(688629):Q3毛利率承压,等待国产超节点放量
华泰证券· 2025-10-28 11:40
投资评级与核心观点 - 报告对华丰科技维持“增持”评级,目标价为102.34元/股 [1][10] - 核心观点认为公司高速线模组业务正经历“从一到十”的客户拓展进程,尽管3Q25毛利率因产品降价短期承压,但长期看好其在AI算力集群互联需求下的增长潜力 [6][7][10] 财务业绩表现 - 公司9M25实现营收16.6亿元,同比增长121%,归母净利润2.2亿元,同比扭亏为盈 [6] - 单季度看,3Q25营收5.54亿元,同比增长109%,但环比下降21%;归母净利润0.72亿元,环比下降39% [6] - 3Q25综合毛利率为26.60%,同比提升14个百分点,但环比下降9个百分点,主要因高速线模组产品量产后降价 [8] - 费用率显著改善,3Q25销售/管理/研发费用率分别为2.86%/8.70%/7.31%,同比分别下降0.46/4.09/4.63个百分点 [8] 业务进展与战略规划 - 高速线模组业务已与华为、阿里、浪潮、超聚变、曙光、华勤等头部客户展开合作,并获得批量采购订单 [7] - 公司拟通过定增募资3.88亿元,用于扩产112Gbps高速线模组并开发224Gbps等下一代产品,以满足GPU互联需求 [9] - 该业务被视为机柜内部Scale-up互联的优良载体,未来将受益于互联网大厂(如阿里、字节、腾讯)超节点需求的起量 [7][9] 盈利预测与估值分析 - 预测公司2025-2027年归母净利润分别为3.44/7.83/11.49亿元,较前次预测调整-9%/+5%/+11% [10] - 采用SOTP估值法:通讯板块(高速线模组)给予2026年66倍PE,对应市值426.74亿元;其他板块(防务+工业)给予2026年33倍PE,对应市值45.03亿元 [10][20] - 综合目标市值471.77亿元,目标价102.34元/股,对应2026年预测PE 60倍 [10][21]