MTIA
搜索文档
The One AI Risk Nvidia Bulls Keep Pretending Isn't Real
Benzinga· 2025-11-26 03:19
Everyone on Wall Street has the same Nvidia Corp (NASDAQ:NVDA) debate — "how big is AI demand?" — and almost no one is asking the only question that actually matters: how long can Nvidia keep taxing hyperscalers at 70%+ margins before they revolt? Because the real threat to Nvidia isn't a competing GPU. It's Alphabet Inc‘s (NASDAQ:GOOG) (NASDAQ:GOOGL) Google's TPU — and what it represents: the moment hyperscalers stop outsourcing the most profitable part of AI.Track NVDA stock here.TPUs Aren't Trying To Bea ...
机构:ASICs有望从CoWoS部分转向EMIB技术
证券时报网· 2025-11-25 20:35
同时,EMIB在封装尺寸上也较具优势,相较于CoWoS-S仅能达到3.3倍光罩尺寸、CoWoS-L目前发展至 3.5倍,预计在2027年达9倍;EMIB-M已可提供6倍光罩尺寸,并预计2026年到2027年可支援到8倍至12 倍。价格部分,因EMIB舍弃价格高昂的中介层,能为AI客户提供更具成本优势的解决方案。 11月25日,TrendForce集邦咨询发布的最新研究显示,AI HPC(高效能运算)对异质整合的需求依赖先 进封装达成,其中的关键技术即是TSMC(台积电)的CoWoS解决方案。然而,随着云端服务业者 (CSP)加速自研ASIC(专用集成电路),为整合更多复杂功能的芯片,对封装面积的需求不断扩 大,已有CSP开始考量从TSMC的CoWoS方案,转向Intel(英特尔)的EMIB技术。 TrendForce集邦咨询表示,CoWoS方案将主运算逻辑芯片、存储器、I/O等不同功能的芯片,以中介层 (Interposer)方式连结,并固定在基板上,目前已发展出CoWoS-S、CoWoS-R与CoWoS-L等技术。随 着NVIDIA(英伟达) Blackwell平台2025年进入规模量产,目前市场需求已高度 ...
人工智能数据中心扩容专家讨论核心要点-Hardware & Networking_ Key Takeaways from Expert Discussion on Scaling Up AI Datacenters
2025-11-18 17:41
行业与公司 * 行业为人工智能数据中心硬件与网络设备[1][3] * 会议是与Scale AI的数据科学家Sri Kanajan进行的专家讨论 聚焦于AI数据中心的扩展[1] 核心观点与论据 **资本支出向推理计算转移** * 计算资本支出向推理转移的速度快于预期 蒸馏、思维链和多步技术以及推理时优化带来了更大的近期收益 而训练工作的回报正在递减[3] * 专家预计增量计算资源用于推理的份额将在约2027年超过训练 2025-2026年已出现向推理的混合支出[3] * 运营商因成本、供应商广度和更容易扩容而越来越倾向于为推理工作负载使用以太网 同时将InfiniBand集中在训练集群所需的地方[3] **模型效率与成本权衡** * 企业正从使用最大/最好的模型转向通过量化和蒸馏微调更小的模型 愿意为推理工作负载相关成本的大幅降低而接受轻微的质量折衷[3] * 更多AI解决方案正与向量数据库、上下文检索、工作流级集成和实时数据访问一起部署 以释放全部投资回报率[3] **硬件与网络标准化** * 在推理相关网络中出现硬件标准化 训练仍由NVLink和InfiniBand主导 而对于推理ASIC 以太网/PCIe和UALink/UEC正获得份额[3] * 专家预计明年将有更多机架级标准化 白牌服务器势头通过OCP计划扩大 Celestica正在推动较低性能级别交换机的标准化 而Arista的交换机仍受青睐于极高性能场景[3] * 对于超过1.6T的速率 可能需要共封装光学器件 而在400G/800G速率下 许多运营商仍可使用可插拔光学器件满足需求[3] **约束条件从GPU供应转向电力** * GPU交付时间已显著缩短 高带宽内存仍然紧张 但整体供应正在改善 主要约束是电网供电和场地能源 许多数据中心因无法获得足够电力而未充分利用[3] * 这种情况有利于推理 因为训练所需的电力高出数个量级(专家表述为超过5-10倍)且需要同步、同地计算 绝大多数训练仍在单个数据中心内进行[3][4] * 推理通过缓存、嵌入和边缘友好数据存储将计算分区跨服务器或集群 能更好地容忍跨地域扩展[4] **GPU资产寿命与存储架构** * GPU资产寿命正在变长 买家现在计划GPU使用寿命为五到六年 高于之前的大约四年 随着新一代GPU上市 资产从训练转移到较低优先级训练任务 再到推理 最后到内部工作负载[5] * 存储继续是混合决策 HDD在成本上仍保持领先 闪存主导训练和密集型推理需求 而硬盘仍适用于不常访问的数据集、日志记录和嵌入 其中每太字节成本至关重要[5] * HDD方面的进步 包括HAMR技术 正在帮助HDD在闪存使用扩大的情况下保持成本领先地位[5] 其他重要内容 **潜在受益公司** * Broadcom被视为向推理转移的主要受益者 因其在定制ASIC方面的工作 包括与Google、亚马逊和Meta的合作[5] * Marvell也应受益于更标准化的推理工作负载和集群更倾向于以太网/PCIe而非NVLink/InfiniBand[5] * Celestica可能随着白牌服务器在OCP设计中的广泛采用而扩大份额[5] * Arista将继续主导最高性能的训练网络 但向推理中以太网的混合转移可能会驱动更广泛的受益领域[5] **分析师覆盖范围** * 报告作者Samik Chatterjee覆盖的股票包括Arista、Celestica等多家硬件与网络公司[10]
AI Spending Is Shifting — And Broadcom, Marvell Are Positioned To Win
Benzinga· 2025-11-15 00:45
AI数据中心支出重心转移 - AI基础设施支出正从模型训练快速转向模型推理 预计到2027年推理将占增量计算支出的主要份额 2025至2026年已开始呈现此趋势 [2][3] - 推动因素包括蒸馏、量化、思维链和多步优化等技术使推理成本更低、效率更高 而训练周期呈现收益递减 [2] - 公司不再追求最大模型 而是寻求能够完成任务的最廉价模型 [3] 受益公司分析 - 博通因专注于为谷歌、亚马逊和Meta开发推理定制ASIC而成为主要受益者 在更小、更廉价、更高效模型需求下占据优势 [4] - 迈威尔科技受益于推理工作负载大量依赖以太网和PCIe 而非昂贵的面向训练的NVLink和InfiniBand结构 [5] - 天弘科技因行业转向白牌、OCP对齐硬件而定位良好 运营商寻求可从多个供应商采购的更廉价、标准化推理机架 [6] - 阿里斯塔网络继续锚定最高性能训练网络 但推理向以太网的广泛混合转变为未来更多网络受益者打开大门 [6] 行业驱动因素 - 电力限制推动转变 训练功耗比推理高5至10倍 许多数据中心电网容量无法支持大型训练集群全负荷运行 [7] - 推理在分布式服务器和边缘集群中扩展性更好 使其不仅更廉价且更易于部署 [7] - AI下一阶段重点是使AI更廉价、快速和易于运行 而非构建最大模型 [8]
中国人工智能:加速计算本地化,助力中国人工智能发展-China AI Intelligence_ Accelerating computing localisation to fuel China‘s AI progress
2025-10-19 23:58
涉及的行业与公司 * 行业:中国人工智能(AI)与计算芯片行业、全球AI芯片设计、半导体设备[1][2][3][4] * 公司:阿里巴巴(Alibaba)、百度(Baidu)、科大讯飞(iFlytek)、地平线(Horizon Robotics)、北方华创(NAURA)、中微公司(AMEC)、华为(Huawei)、寒武纪(Cambricon)[1][4][7][9][14][15] * 全球科技巨头:谷歌(Google)、亚马逊(Amazon)、Meta、微软(Microsoft)[2][6] 核心观点与论据 中国AI计算本土化进程加速 * 尽管进口AI芯片存在不确定性,但国内计算能力仍在发展,主要受国家政策支持及大型科技公司/本土供应商对研发投入的承诺驱动[1] * 国内GPU厂商与互联网公司的持续研发投入推动芯片性能快速提升,尽管与顶尖水平仍有差距[1][3] * 通过超级节点(如阿里巴巴的Panjiu 128卡超级节点、华为的CloudMatrix 384)进行系统级扩展,提升单个机架的GPU数量,部分抵消了单个国产GPU的性能差距,提供更高的机架级计算能力[1] * 这种设计使国产芯片能够支持更复杂的推理场景(如长上下文和多模态模型),并有望长期支持训练工作负载[1] * AI模型开发者(如DeepSeek)正优化算法以适应国产GPU,例如采用本土团队开发的GPU内核编程语言TileLang,更好地适配华为昇腾和寒武纪等本土计算生态[1] 全球及中国科技巨头加速自研AI芯片 * 主要互联网公司加速内部ASIC开发,以优化内部工作负载并提升性价比[2] * 谷歌是自研AI芯片的早期先驱(2016年TPU v1),已迭代多代,从推理扩展到训练,当前TPU v7 Ironwood支持大规模模型部署[2][6] * 亚马逊推出Trainium用于训练和推理,Meta(MTIA)和微软(Maia)也开发了定制AI芯片[2][6] * 百度已开发三代昆仑芯片,最新昆仑P800支持其模型并实现了30,000卡集群[2][7][8] * 阿里巴巴也开始部署自研芯片用于AI训练工作负载[2][10][11] 国产AI芯片进展与挑战 * 硬件性能:前沿国产GPU的计算能力现已匹配英伟达安培架构(如A800),下一代目标瞄准霍珀架构(如H800),但仍落后于英伟达2024年发布的最新Blackwell系列一代[3][13] * 软件生态:部分国产芯片厂商已构建自有软件栈或通过翻译工具增加CUDA兼容性,提高了工程师的迁移效率,但不同生态系统间的碎片化意味着模型通常需要重新编译和优化,限制了可扩展性[3] * 供应链能力:除了芯片设计质量,中国在先进制程工艺和高带宽内存生产方面的能力仍处于早期阶段[3] 具体公司进展与订单 * 百度:第三代昆仑P800芯片与百舸平台紧密协作,在模型适配、网络和算子优化方面具有优势,展示了30,000卡P800集群和64卡超级节点机架[7][8] 昆仑芯片获得中国移动电信AI项目价值超过10亿元人民币的芯片订单[8] * 阿里巴巴:其半导体部门T-Head通过收购和整合,建立了全栈芯片组合,包括含光800 AI芯片等[9][10] 最新AI芯片PPU据报道在关键硬件规格上接近英伟达A800,具备96GB内存和700GB/s芯片间带宽[10] 发布了Panjiu超级节点(128 AI芯片/机架)和灵骏AI集群[11] 与中国联通等合作,在青海西宁投资3.9亿美元建设数据中心,使用阿里巴巴等中国公司的芯片[12] 投资观点与风险提示 * 看好阿里巴巴和百度,因其自研芯片的持续进展可能加强其在AI价值链中的定位和持续的AI投资[4] * 强调科大讯飞的独特定位,因其在将国产硬件与其大语言模型开发对齐方面取得领先进展[4] * 在科技公司中,偏好地平线(边缘AI)、北方华创和中微公司(中国半导体设备厂商)[4] * 行业风险包括:竞争格局演变和竞争加剧、技术及用户需求快速变化、货币化不确定性、流量获取和内容及品牌推广成本上升、IT系统维护、国际市场扩张、市场情绪不利变化、监管变化[16] * 投资中国半导体行业风险较高,包括快速的技术变革、日益激烈的竞争、宏观经济周期暴露、财务结果难以预测、估值挑战以及政治风险(如政府政策和供应链限制)[17] 其他重要内容 * 报告包含了英伟达与阿里巴巴、百度、寒武纪等中国厂商的AI芯片技术规格详细对比[13][14] * 报告列出了华为昇腾芯片的未来路线图(Ascend 910C 至 970),显示了其性能提升计划[15] * 报告附有全球及中国云服务提供商AI ASIC发展路线图[6]
“英伟达税”太贵?马斯克领衔,AI巨头们的“硅基叛逆”开始了
创业邦· 2025-09-11 11:09
文章核心观点 - AI巨头自研芯片的深层战略考量正改变产业估值逻辑和权力格局 远超解决芯片短缺和降低成本的表面动机 [9][10] - 推理成本将超越训练成本成为AI商业化最大瓶颈 自研芯片首先瞄准推理环节 [25] - 2026年晶圆产能争夺战将决定AI算力竞争胜负 考验供应链管理和资本实力 [27] 巨头自研芯片战略动机 - 摆脱性能枷锁:通过软硬协同实现极致性能功耗比 在数据中心节省数亿至数十亿美元电费和运营成本 [11][13] - 重构经济模型:将不可控运营成本转化为可控资本开支 改变长期成本结构并构建财务护城河 [14][16] - 构筑数据壁垒:芯片架构成为AI战略的物理化身 形成"数据-模型-芯片"正向飞轮固化竞争优势 [17] 半导体产业链格局变化 - 台积电成为AI时代产能分配核心:3nm工艺产能被苹果及Google Meta 亚马逊 微软等AI巨头瓜分 [19][21] - 英伟达面临围城之势:CUDA生态优势在封闭场景下被削弱 但迁移成本仍构成护城河 [22][24] - 博通成为隐形赢家:为巨头提供定制化ASIC芯片设计服务 深度绑定多家AI领军企业 [26] AI商业化趋势与产能竞争 - 推理成本占比将达80%-90%:AI应用生命周期总成本中推理成为持续性海量消耗 [25] - 2026年产能决战:台积电3nm/2nm产线将汇集苹果 英特尔 英伟达及AI巨头自研芯片 [27] - 供应链能力成为关键:产能绑定协议和预付款规模将决定算力落地能力 [27]
GPU王座动摇?ASIC改写规则
36氪· 2025-08-20 18:33
行业观点分歧 - 英伟达CEO黄仁勋认为全球90%的ASIC项目会失败 强调ASIC缺乏灵活性与扩展性 难以应对AI快速迭代 [2][3] - 市场认为ASIC迅猛发展对英伟达构成威胁 云巨头助推下AI算力市场迎来新临界点 [4][5] 市场份额与出货量 - 当前英伟达GPU占AI服务器市场80%以上 ASIC仅占8%-11% [6] - 2025年谷歌TPU出货量预计150-200万台 AWS Trainium2约140-150万台 英伟达AI GPU供应量500-600万台 [6] - 谷歌和AWS的AI TPU/ASIC总出货量已达英伟达AI GPU出货量的40%-60% [7] - 预计2026年ASIC总出货量将超越英伟达GPU Meta和微软分别于2026/2027年大规模部署自研ASIC [7] ASIC技术优势 - ASIC在AI推理场景具碾压性优势:谷歌TPU v5e能效比是英伟达H100的3倍 AWS Trainium2推理性价比高30%-40% [18] - 谷歌TPUv5和亚马逊Trainium2单位算力成本仅为英伟达H100的70%和60% [18] - 大模型推理芯片需求是训练集群10倍以上 ASIC定制化设计可降低单芯片成本 [18] - 2023年AI推理芯片市场规模158亿美元 预计2030年达906亿美元 复合年增长率22.6% [18] 训练市场格局 - 英伟达占据AI训练市场90%以上份额 Blackwell架构支持1.8万亿参数模型 NVLink6实现72卡集群互联 [19] - CUDA生态壁垒难以撼动:90%以上AI框架原生支持CUDA 用户迁移成本极高 [19] 头部企业ASIC布局 - 谷歌TPU从"名不见经传"发展为具备与英伟达GPU较量实力 [10] - Meta2023/2024年推出MTIA V1/V2芯片 计划2026年推出搭载HBM的MTIA V3扩展至训练与推理任务 [23] - AWS布局推理芯片Inferentia和训练芯片Trainium Trainium3性能较上一代提升2倍 能效提升40% [24] - 微软发布首款自研AI芯片Azure Maia 100(1050亿晶体管)和Azure Cobalt 采用5nm制程 [25] - 华为昇腾910B和寒武纪思元590代表国内ASIC芯片技术突破 [26][27] ASIC芯片供应商 - 博通以55%-60%份额位居ASIC市场第一 定制AI芯片销售额占AI半导体收入70%达308亿美元 [28] - 博通与谷歌/Meta/字节跳动合作 新增OpenAI/苹果客户 正与Meta推进第三代MTIA芯片研发 [28] - Marvell以13%-15%份额位列第二 数据中心业务占比75% ASIC收入主要来自AWS Trainium2和谷歌Axion处理器 [29] - Marvell与亚马逊合作的Inferential ASIC项目2025年量产 与微软合作的Maia项目预计2026年推进 [29]
挑战英伟达(NVDA.US)地位!Meta(META.US)在ASIC AI服务器领域的雄心
智通财经网· 2025-06-18 17:30
AI服务器市场竞争格局 - 英伟达在AI服务器领域占据超过80%的市场价值份额 ASIC AI服务器的价值份额约为8%-11% [1][3] - 谷歌TPU和亚马逊Trainium2 ASIC在2025年合计出货量预计达到英伟达AI GPU的40%-60% 谷歌TPU可能达到150-200万台 亚马逊Trainium2约140-150万台 英伟达AI GPU供应量预计500-600万台 [3] - 云服务提供商正积极部署自研AI ASIC解决方案 Meta计划从2026年开始 微软从2027年开始 [1][4] AI ASIC技术发展趋势 - 英伟达推出NVLink Fusion技术 开放专有互连协议 支持与第三方芯片连接 试图维持云计算市场地位 [4] - 英伟达在单位芯片面积计算能力和互连技术(NVLink)方面保持领先 晶体管密度达130MTr/mm² 远超竞争对手 [6][7] - ASIC解决方案正采用更复杂规格 如更大中介层 Meta的MTIA V1 5中介层尺寸超过5倍光罩尺寸 接近英伟达Rubin GPU水平 [10][12] Meta MTIA项目进展 - Meta计划推出三代MTIA芯片 V1(2025年底) V1 5(2026年中) V2(2027年) V1 5性能显著提升 系统功率达170KW [13][14][19] - MTIA V1采用刀片架构 16个计算刀片和6个交换机刀片 主板采用36层PCB和高等级材料 [16][18] - 供应链预计2026年MTIA总产量目标200万套 但CoWoS晶圆供应可能仅支持3-4万片 存在量产挑战 [22][23] 供应链机会 - 广达负责Meta MTIA V1和V1 5的计算托盘及CDU制造 并主导V1 5整机架组装 [24] - 欣兴电子成为Meta 谷歌及AWS ASIC基板主要供应商 在英伟达Blackwell GPU份额达30%-40% [24] - 联茂电子主导Meta和亚马逊ASIC覆铜板供应 Meta PCB要求36/40层 M8混合覆铜板 [25] - Bizlink有望为Meta MTIA提供有源电缆(AEC)产品 用于机架扩展和升级连接 [26]
博通:ASIC 增速 “失灵”,万亿 ASIC 故事遇 “坑” or 迎 “机”?
海豚投研· 2025-06-06 10:14
博通2025财年第二季度财报核心观点 - 公司本季度实现营收150亿美元,同比增长20%,符合市场预期(149.5亿美元),增长主要来自AI业务和VMware并表整合 [1] - 毛利率提升至68%,主要受益于VMware业务整合带来的结构性改善 [1] - 海豚君评价本次财报表现中规中矩,未见明显亮点,当前股价已包含市场对AI业务的增长预期 [6][15] 分业务表现 半导体业务 - 半导体业务收入84亿美元,环比增长2亿美元,其中AI业务贡献主要增量 [2] - AI业务收入44亿美元,环比增长3亿美元,符合预期但增速放缓,主要受谷歌TPU产品代际切换影响 [2] - 非AI业务收入40亿美元,略有下滑,无线和工业业务持续疲软 [3] - 公司预计下季度AI业务收入将加速至51亿美元(环比+7亿),主要受益于TPUv6量产 [2][10] 基础设施软件业务 - 软件业务收入66亿美元,环比下滑1亿美元,为VMware并购后首次下滑 [3] - VMware订阅模式转化率已超60%,并购整合带来的高增长阶段已结束 [8] - 软件业务未来增长将主要依赖订阅模式渗透率提升 [3] 经营费用与财务指标 - 核心经营费用37.7亿美元(研发+销售管理),环比增加5.7亿,主要因股权激励增加 [3] - 剔除股权激励影响后,核心经营费用22亿美元,环比增1.3亿,反映公司加大AI研发投入 [3] - 调整后EBITDA利润率66.7%,保持较高水平 [4] AI业务深度分析 客户与产品管线 - 当前AI收入中计算与网络收入占比为6:4,预计计算占比将持续提升 [10] - 已与7家客户开展ASIC合作,包括谷歌/Meta/字节/OpenAI/软银等 [10][11] - 主要客户产品路线图: - 谷歌TPUv6(3nm)2024年量产,v7(3nm/2nm)预计2026年 [13] - Meta MTIA v2(5nm)已量产,v3(3nm)2025-2026年 [13] - 字节跳动AI视频/网络芯片(5nm)已量产 [13] 竞争格局 - 谷歌TPUv7将采用双供应商策略(博通负责p系列,联发科负责e系列),但对博通核心地位冲击有限 [13][14] - 2026年起OpenAI和软银产品量产将带来新增量 [12] 财务指引与估值 - 下季度收入指引158亿美元(市场预期157亿),AI业务预计贡献51亿 [4][15] - 当前市值对应2026财年预期PE约33倍(假设收入+23%,毛利率-1pct,税率14%) [15] - 债务指标(Total Debt/LTM EBITDA)降至2.5,显示VMware并购的财务影响已基本消化 [8]
天弘科技:以太网交换机、ASIC服务器双轮驱动-20250521
国金证券· 2025-05-21 09:23
报告公司投资评级 - 报告给予公司“买入”评级,目标价133.02美元 [4][75] 报告的核心观点 - 公司作为ASIC服务器与以太网ODM交换机主要厂商,有望受益ASIC行业趋势,在ASIC服务器赢得新客户定点,以及ODM收入占比增长带动盈利能力提升,具备较强alpha属性,随着主要ASIC客户新一代产品25H2有望开始放量,公司业绩预期有望持续兑现 [3] 根据相关目录分别进行总结 一、深度布局ASIC服务器+以太网交换机,AI推理核心受益标的 - 推理算力重要性提升,ASIC产业链有望受益:大语言模型推理成本指数级下降,每美元生成token数量增长,模型能力提升,推理成本降低和算法迭代带动ASIC需求增长,ASIC相比GPU性价比高,可定制开发,提升运算效率、降低功耗和单价 [14][15] - ASIC有望受益客户放量+客户拓展:公司连接与云端解决方案产品主要客户优质,增长驱动力来自ASIC服务器与高速以太网交换机在北美CSP放量,目前主要ASIC服务器客户为谷歌,25H1企业终端市场收入承压,25H2有望重回增长,还成为Meta的ASIC服务器供应商,获得一家领先商业化AI公司的ASIC系统项目全栈方案 [27][29][30] - 受益AI以太网组网趋势,交换机业务有望起量:大型云厂商在AI芯片组网中逐渐转向以太网,数据中心以太网交换机以白盒交换机为主,公司作为白牌交换机主要厂商之一,份额有望提升,以太网交换机市场有望增长,公司有望受益于客户需求带动的交换机需求增长 [32][39][45] 二、从EMS转向ODM,有望加强客户绑定并保持较强竞争力 - 从EMS转向ODM,盈利能力改善:公司推出“硬件平台解决方案”的ODM业务模式,收入持续增长,带动盈利能力提升,未来ODM业务收入占比有望继续提升,驱动力来自交换机收入增长和ASIC服务器复杂度提升 [50][51][53] - ASIC机柜有望成为主流方案,公司有望受益于加深已有客户绑定+拓展新客户:ASIC逐渐转向机柜形式出货,公司已有客户和新客户的ASIC预计采用机柜形式,公司作为领先企业,有望增强行业地位,获得更多项目导入机会,未来有望更多参与设计,加强与客户绑定,提升盈利能力 [57][60][61] - 全球布局,有望充分降低关税影响:公司产能全球布局,数据中心业务在加拿大、墨西哥、马来西亚、印度有产能布局,出货有望享受协定或低关税,主要数据中心出货产品在关税豁免清单,极端情况下可能将业务转向美国本土或墨西哥 [62][66] 三、ASIC行业β+公司自身α,有望开启强预期、强现实的持续兑现 - 公司作为主要厂商,有望受益ASIC行业趋势,具备较强alpha属性,经营杠杆高,利润弹性大,ODM业务收入占比有望提升,盈利能力持续向上,市场对公司客户有较强预期,25H2公司ASIC业务和交换机业务有望业绩持续兑现 [67][68] 四、盈利预测与投资建议 - 盈利预测:预计公司2025 - 2027年营业收入分别为112.47、139.27、158.84亿美元,同比+16.60%、+23.83%、+14.05%,毛利率分别为11.17%、11.31%、11.23%,连接与云解决方案业务、通信终端市场、企业终端市场、高级技术解决方案收入有不同预测 [69][70][71] - 投资建议:预计公司2025 - 2027年净利润分别为5.93、7.65、8.71亿美元,同比+38.4%、+29.1%、+13.9%,EPS分别为5.15、6.65、7.57美元,给予公司26年20X PE,对应目标价133.02美元,首次覆盖,予以“买入”评级 [74][75]