ASIC
搜索文档
英特尔,叫板博通
半导体芯闻· 2025-12-16 18:57
如果您希望可以时常见面,欢迎标星收藏哦~ 英特尔的人工智能计划已经连续几个季度处于不确定状态,但该公司似乎将瞄准两个主要领域: ASIC 和边缘人工智能。 毫无疑问,在计算解决方案提供商领域,英特尔过去一直占据主导地位,尤其是在通用计算和服务 器级计算等领域。然而,在人工智能领域,英特尔与英伟达和AMD的差距巨大。英特尔前首席执 行官帕特·盖尔辛格也承认,英特尔的人工智能战略并不尽如人意。即使在陈立步担任首席执行官 期间,我们可能也直到现在才看到一个清晰的架构。在巴克莱年度全球技术大会上,英特尔副总裁 约翰·皮策就该公司在人工智能领域的未来发展方向发表了见解: "随着人工智能从中心向边缘扩展,我们正致力于研发一款功耗优化的GPU,用于推理。这方面我 们还有很多工作要做,敬请期待。这需要一些时间。我认为Lip-Bu引入的另一个值得探讨的动态 是ASIC业务部分。 我认为ASIC业务的另一个有趣之处在于,我们可以采用类似博通Marvell的模式。但考虑到英特尔 晶圆代工模式,许多超大规模数据中心运营商正寻求直接与晶圆代工厂合作,试图绕过传统模 式。" 如今,英特尔的主要战略之一是充分利用边缘人工智能,而该公司正在 ...
英特尔的ASIC雄心
半导体行业观察· 2025-12-15 09:33
公众号记得加星标⭐️,第一时间看推送不会错过。 英特尔的人工智能计划已经连续几个季度处于不确定状态,但该公司似乎将瞄准两个主要领域: ASIC 和边缘人工智能。 毫无疑问,在计算解决方案提供商领域,英特尔过去一直占据主导地位,尤其是在通用计算和服务器 级计算等领域。然而,在人工智能领域,英特尔与英伟达和AMD的差距巨大。英特尔前首席执行官 帕特·盖尔辛格也承认,英特尔的人工智能战略并不尽如人意。即使在陈立步担任首席执行官期间, 我们可能也直到现在才看到一个清晰的架构。在巴克莱年度全球技术大会上,英特尔副总裁约翰·皮 策就该公司在人工智能领域的未来发展方向发表了见解: "随着人工智能从中心向边缘扩展,我们正致力于研发一款功耗优化的GPU,用于推理。这方面我们 还有很多工作要做,敬请期待。这需要一些时间。我认为Lip-Bu引入的另一个值得探讨的动态是 ASIC业务部分。 我认为ASIC业务的另一个有趣之处在于,我们可以采用类似博通Marvell的模式。但考虑到英特尔晶 圆代工模式,许多超大规模数据中心运营商正寻求直接与晶圆代工厂合作,试图绕过传统模式。" 如今,英特尔的主要战略之一是充分利用边缘人工智能,而该公司 ...
百度启动昆仑芯分拆上市评估 能否打破大厂造芯“身份困局”?
每日经济新闻· 2025-12-09 22:40
公司动态:百度拟分拆昆仑芯独立上市 - 百度集团-SW于12月7日晚间发布公告,正在评估旗下非全资附属公司昆仑芯的拟议分拆及独立上市计划,相关进程需经监管审批且存在不确定性 [1] - 据市场消息,百度计划最早于2026年一季度向港交所递交昆仑芯的上市申请,目标是在2027年初完成IPO [1] - 昆仑芯前身为百度智能芯片及架构部,于2021年成立为独立企业实体,由百度芯片首席架构师欧阳剑出任CEO,并已完成D轮融资,首轮独立融资估值约130亿元人民币 [2] 昆仑芯业务与产品 - 昆仑芯在百度AI全栈技术体系中处于底层位置,为飞桨深度学习框架、文心大模型及搜索等应用提供算力基础 [2] - 公司于2018年7月正式推出昆仑1代AI芯片,基于自研XPU架构,采用三星14nm工艺,并于2020年实现量产,在百度搜索引擎和小度等业务中部署 [2] - 昆仑芯近两年已开始对外销售,其产品在国内部分终端完成应用验证,业内反馈其产品在国内属于较好水平 [3] 分拆上市的战略动机 - 分拆上市与AI行业处于早期快速上升阶段、算力芯片需求旺盛的周期相契合,同时也是利用当前国产化窗口期的合理选择 [3] - 更深层逻辑在于,将昆仑芯独立出来有助于其摆脱“百度御用”标签,以更中立身份参与市场竞争,从而突破作为大厂内部部门难以进入其他竞争对手或大型企业供应链的身份尴尬 [3][7] - 昆仑芯的产品已在百度内部经过大规模验证,并在其他国内终端获得应用和积极反馈,此时具备独立发展的条件 [3] 行业背景:国内互联网巨头造芯格局 - 为降低算力成本并保证供应链安全,国内互联网巨头纷纷下场自研AI芯片 [6] - 百度自研昆仑芯片最初源于搜索应用需求,因采购外部芯片成本过高,该芯片已为百度搜索服务优化10年,每天响应几十亿次用户需求并进行1万亿次深度语义推理与匹配 [6] - 阿里巴巴通过收购与自研并举,整合成立平头哥半导体,已发布玄铁910、含光800AI推理芯片及自研CPU倚天710等产品 [6] - 腾讯早期通过投资切入芯片领域,于2021年正式公开紫霄AI推理芯片、沧海转码芯片、玄灵智能网卡芯片三款自研芯片,主要面向特定场景 [6] 行业趋势与竞争逻辑 - 人工智能时代的技术栈已变为芯片层、框架层、模型层、应用层四层架构,芯片层作为底层算力基础,主要芯片已从CPU转向以GPU为代表的适合并行大规模浮点运算的芯片 [4][5] - 大厂自研AI芯片(如谷歌TPU)的普遍逻辑在于提升能效比、满足内部大规模业务场景需求,ASIC方案在能耗和效率上具优势但通用性相对较弱 [7] - 大厂造芯通常“高举高打”,集中精力在高算力场景,而边缘或轻量级推理等小场景往往不是其优先目标 [7] - 国产AI芯片正经历从技术竞争走向工程能力、生态体系和规模化能力竞争的新阶段 [4]
一个月市值蒸发5万亿元!英伟达遭遇谷歌自研芯片冲击波
21世纪经济报道· 2025-11-26 20:08
谷歌TPU商业化进展 - 谷歌正与Meta等科技公司洽谈TPU外采合作,Meta考虑从2027年开始在其数据中心部署谷歌TPU,并可能最早于明年通过Google Cloud租用TPU容量,潜在合同金额或达数十亿美元[3] - 谷歌推出了最新一代TPU v7 (Ironwood),并迭代出Gemini 3,Gemini 3已大量使用TPU完成训练和推理[3] - 谷歌对TPU的研发始于2013年,过去主要用于谷歌内部AI工作负载和Google Cloud服务,此次推动自研芯片走向外部客户是其长期"软硬一体化"战略的自然延伸[3] 英伟达的市场反应与竞争回应 - 谷歌TPU商业化消息导致英伟达股价震荡,周二美股早盘一度下滑7%,最终收跌约2.6%[1] - 自10月29日以来,英伟达市值从5.03万亿美元跌至11月25日收盘的4.32万亿美元,不到一个月时间市值缩水超过7000亿美元(约合人民币5万亿元)[1] - 英伟达正面回应竞争,称公司领先行业整整一代,是唯一能够运行所有AI模型并可在所有计算场景中部署的平台,并强调与谷歌的合作稳定持续[1] AI芯片行业格局演变 - 英伟达目前占据AI芯片市场超过90%的份额,但以谷歌为代表的厂商正在夺取更多份额[3] - 行业正从GPU单线制向多架构、多供应商的异构化体系演进,未来更可能呈现ASIC、GPU异构部署[2][6] - 全球科技巨头普遍加速自研AI芯片以争夺算力主权,包括AWS持续更迭Graviton、Trainium、Inferentia系列,以及中国市场的华为昇腾、寒武纪、百度昆仑芯等[5][6] 不同芯片架构的技术特点 - 英伟达构建了AI基础设施的全套体系,包括CUDA、NVLink、高速互联等,强调GPU的通用性与兼容性是不可替代的基础设施[4] - TPU、Gaudi、Trainium等ASIC芯片根据特定框架或任务场景,在特定负载上取得极高效率[4] - 谷歌表示自家定制的TPU和英伟达GPU的需求都在加速增长,厂商在AI训练与推理时会采用算力供应多元策略[1][4] 行业采购策略变化 - Anthropic同时与英伟达签订长期基础设施协议并采购谷歌最新Ironwood TPU,体现大型AI公司倾向于保持算力供应链多元化的"多路线并行"采购方式[6] - 在大模型训练成本几何级上升的背景下,自研芯片成为巨头降低能耗、控制成本的关键路径[3] - AI基础设施行业正在从单一硬件竞争转向系统级竞争,随着软件框架、模型体系、能效的变化,芯片格局仍在演变[7]
联发科开辟芯片新赛道
半导体芯闻· 2025-11-26 18:49
联发科业务拓展 - 联发科正从边缘装置业务(手机芯片、智慧装置平台、电源管理IC)向云端数据中心AI加速器ASIC市场拓展,以抓住新商机[1] - 公司已获得首个AI加速器ASIC客户,复杂度更高的后续专案正在进行中,预计2028年起贡献营收,并正积极与第二家超大规模数据中心业者接触新专案[1] - 联发科将数据中心ASIC的总潜在市场规模预估从两年前的400亿美元上修至500亿美元,主要因云端服务供应商资本支出展望上调[1] 联发科市场目标与进展 - 公司目标在未来二年内取得数据中心ASIC市场约10%至15%的市占率[2] - 第一个ASIC专案预计于2027年贡献数十亿美元营收,第二个专案则自2028年起开始贡献,预期成为长期成长动能[2] - 公司在ASIC领域的优势来自长期技术积累与研发投资,并已在美国强化研发团队以提升技术实力和客户沟通效率[2] 联发科技术布局 - 公司积极投入高速互连与矽光子等关键领域,涵盖芯片间与芯片至机架的高速连结架构[3] - 同步推进2纳米制程技术、3.5D封装与大面积光罩芯片设计,以建构完整的高效能运算平台[3] AI ASIC行业趋势 - AI ASIC市场规模预计从2024年的120亿美元增长至2027年的300亿美元,年复合增长率达34%[5] - 全球科技巨头如谷歌、特斯拉、亚马逊、微软、Meta均已投入自研AI ASIC芯片[5] - 芯片设计大厂(如博通、迈威尔)也与云端服务供应商合作开发AI应用ASIC芯片[5] 台湾ASIC供应链优势 - 台湾供应链具备从芯片制造到封装测试的一条龙能力,在时程与弹性上具有优势,人力与营运成本相较美国更具竞争力[6] - 联发科首个AI加速器ASIC专案执行顺利,目标2026年云端ASIC营收达10亿美元,2027年达数十亿美元,充分展现其整合顶尖IP与管理先进制程供应链的能力[6] 其他台湾ASIC厂商动态 - 联咏已投入逾2亿美元打造AI伺服器生态圈,多款产品锁定3纳米、5纳米制程,目标在云端与边缘市场取得据点[7] - 世芯2纳米制程案件已从本季开始贡献业绩,3纳米制程AI芯片案件预计明年第二季量产,将推动明年业绩增长[7] - 创意与xAI团队合作开发AI加速器,并可能参与特斯拉3纳米AI5芯片设计,预计2026年底贡献营收,2027年该专案可带来7亿至8亿美元营收;另与亚马逊合作AI语音喇叭推论芯片,预计2027年贡献约1亿美元营收;与SanDisk合作的SSD控制器专案预计2027年营收达约2.5亿美元[7][8]
科创100ETF基金(588220)涨近2%,AI主线领涨市场
新浪财经· 2025-11-26 14:12
上证科创板100指数及ETF表现 - 截至2025年11月26日13:24,上证科创板100指数强势上涨,成分股源杰科技上涨13.08%,东芯股份上涨12.93%,燕东微上涨8.04%,微导纳米、华曙高科等个股跟涨 [1] - 科创100ETF基金(588220)上涨1.98%,冲击3连涨,最新价报1.29元 [1] - 上证科创板100指数选取科创板中市值中等且流动性较好的100只证券作为样本,前十大权重股合计占比25.77% [3] 算力硬件与半导体行业动态 - 算力硬件股延续强势,半导体芯片走高 [1] - 全球大型云端服务业者加速自研AI ASIC,预估将带动2025年八大CSP的合计资本支出突破4200亿美元 [1] - Meta正与谷歌就2027年在其数据中心使用价值数十亿美元TPU芯片进行谈判,同时计划明年从谷歌云租用芯片,可能为谷歌带来数十亿美元的新增收入 [1] 谷歌AI生态系统分析 - 谷歌正在构建从芯片(TPU v7p)到模型(Gemini 3.0)再到应用(搜索+Waymo)的完全自给自足的生态闭环 [2] - 该闭环正转化为财务回报:TPU部署大幅降低推理成本,搜索市场份额企稳回升至90%以上,充沛的广告现金流为高强度资本开支提供充足弹药 [2] ASIC与光模块市场影响 - 同等算力规模情况下,ASIC的光模块用量远超GPU [2] - TPU v7的FP8精度算力估算为4614 TFLOPS,推测其1.6T模块配比约1:4.5,在纸面算力相等的情况下TPU v7光模块用量是英伟达Rubin(2die)的3.3倍 [2] - 若英伟达份额下降,ASIC或将取得更多份额,光模块板块增速更快,占整体资本支出比例或将进一步提升 [2]
盘前下跌超3%!英伟达遭史上最强阻击?谷歌TPU获Meta数十亿美元洽购!深度重磅拆解:性能硬刚Blackwell、能效怼GPU
美股IPO· 2025-11-25 18:17
文章核心观点 - 谷歌自研TPU的核心价值在于通过掌控全栈设计绕开“英伟达税”,从而显著提升AI业务的利润率,并为AI推理时代构建强大护城河 [1][17][18] - 谷歌TPU v7在算力、显存和能效比等关键性能指标上实现代际跨越,足以与英伟达最新Blackwell架构芯片处于同一竞争梯队 [14][15][16][20] - TPU获得Meta数十亿美元规模的洽购,表明其市场竞争力已对英伟达构成实质性威胁 [3][4] TPU的发展背景与战略意义 - TPU的研发缘起于2013年,是为应对语音搜索等AI业务算力需求激增导致的财务和物流成本噩梦而进行的“生存自救” [6] - 项目从设计概念到数据中心部署仅用15个月,2015年已默默支撑谷歌地图、照片和翻译等核心业务 [7][8] - 公司并非将TPU视为“备胎”,而是为AI推理时代构建一道几乎不可逾越的护城河的关键战略 [5] TPU的技术架构优势 - TPU采用极简主义的“脉动阵列”架构,剥离了GPU中为图形处理设计的无关硬件,使数据能像血液一样流动,大幅减少对HBM的读写次数 [10][11] - 这种设计有效规避了“冯·诺依曼瓶颈”,让芯片将更多时间用于计算而非等待数据,从而在“每焦耳运算量”上拥有碾压级优势 [11][12] - 在互联技术上使用光路交换机和3D环面网络,相比英伟达的InfiniBand,极其节省成本和功耗 [16] TPU v7 (Ironwood) 的性能突破 - 算力实现数量级提升:BF16算力高达4,614 TFLOPS,远超上一代TPU v5p的459 TFLOPS [15] - 显存容量对标英伟达B200:单芯片HBM容量达到192GB,内存带宽飙升至7,370 GB/s,远超v5p的2,765 GB/s [16] - 能效比显著优化:v7的每瓦性能比v6e提升了100%,针对特定应用能提供比GPU高出1.4倍的每美元性能,处理动态模型训练时速度可达GPU的5倍 [16] TPU对商业模式和行业格局的影响 - 自研ASIC是云厂商逃离“英伟达税”、重回高毛利时代的唯一解药,可避免AI业务毛利从传统的50-70%骤降至20-35% [17][18] - 谷歌通过全栈设计掌控(前端RTL自行设计,Broadcom仅负责后端物理实现),并利用Broadcom远低于英伟达的毛利,将算力成本压到极致 [1][18] - 随着AI工作负载从训练向推理转移,CUDA生态系统的重要性在降低,TPU的性价比优势(成本可降至原五分之一)日益凸显 [19][20]
联发科开辟芯片新赛道
半导体行业观察· 2025-11-24 09:34
联发科业务拓展与市场机遇 - 联发科正从边缘装置业务向云端数据中心AI加速器ASIC市场拓展,以抢占高阶订单并开辟新蓝海 [1] - 公司首个AI加速器ASIC专案执行顺利,预计于2027年起贡献数十亿美元营收,第二个专案预计于2028年起贡献营收 [2][6] - 联发科上修数据中心ASIC总潜在市场规模预估,从两年前的400亿美元提高至500亿美元,并目标在未来两年内取得10%至15%的市占率 [1][2] 联发科技术布局与竞争优势 - 公司积极投入高速互连与矽光子等关键领域,并推进2纳米制程、3.5D封装等先进技术,以建构高效能运算平台 [3] - 联发科的优势来自长期技术积累与研发投资,已在美国强化研发团队以提升技术实力和客户沟通效率 [2] - 公司展现将顶尖IP整合至客制化设计的能力,以及管理先进制程与先进封装供应链的能力 [6] AI ASIC行业趋势与市场规模 - AI ASIC市场规模预计将从2024年的120亿美元增长至2027年的300亿美元,年复合增长率达到34% [5] - 全球科技巨头如谷歌、特斯拉、亚马逊、微软、Meta均已投入ASIC芯片开发,推动市场需求 [5] - 芯片设计大厂博通、迈威尔等与云端服务供应商巨头合作开发AI应用ASIC芯片 [5] 台湾ASIC供应链动态 - 台湾供应链在芯片制造到封装测试具备一条龙优势,在时程、弹性及成本上具有竞争力 [6] - 联咏已投入逾2亿美元打造AI伺服器生态圈,多款产品锁定3纳米、5纳米制程,目标在云端与边缘市场取得据点 [7] - 世芯2纳米制程案件已开始贡献业绩,3纳米制程AI芯片案件预计在明年第二季量产 [7] - 创意与xAI、特斯拉、亚马逊等合作多个专案,预计其2027年营收将因这些专案显著增长 [7]
Intel (NasdaqGS:INTC) 2025 Conference Transcript
2025-11-19 05:22
涉及的行业或公司 * 涉及的公司是英特尔公司 (Intel, NasdaqGS: INTC) [1] * 涉及的行业是半导体行业,特别是芯片设计、制造 (IDM)、以及晶圆代工 (Foundry) 业务 [3][5][6] 核心观点和论据 **1 管理层战略重点与文化转型** * 公司最高优先事项是文化转型,目标是重建一个以工程师为核心、以客户为中心的组织 [4] * 通过重组简化了组织架构,旨在减少官僚主义,实现更快、更好的决策 [4] * 文化转型被视为业务部门层面所有变革的基础 [5] **2 产品路线图与市场竞争力** * 首要业务重点是确保 Panther Lake 的成功发布,这与 18A 制程的良率提升相吻合 [5] * 公司对在年底前推出首个 Panther Lake SKU 感到乐观,并将在次年1月的 CES 上重点宣传 [5] * 在数据中心和客户端计算部门 (CCG 和 DCAI),关键目标是建立能推动市场份额增长和毛利率提升的路线图 [6] * 公司承认在服务器路线图的竞争力上未达预期,正在努力改进,新任命的数据中心业务负责人将带来从晶体管到SoC到系统的专业知识 [26] * 服务器市场并非单一市场,不同细分市场表现不同,Granite Rapids 的初期进展良好,但受到供应限制 [26] * 对于未来的 Diamond Rapids 系列,高端产品竞争力感觉良好,而 Coral Rapids 则有机会进行更彻底的重新设计以提升竞争力 [27][28] **3 与英伟达 (NVIDIA) 的合作关系** * 公司与英伟达达成了两项重要合作:一项是在数据中心和客户端领域的合作,另一项是英伟达50亿美元的投资(预计年底前完成)[7][8] * 该合作是对 x86 生态系统关键性的认可,也是一项多代际协议,表明英伟达对英特尔未来多代产品路线图的认可 [8][9] * 在数据中心方面,公司将向英伟达提供定制版 Xeon 芯片,由英伟达集成到其系统中并负责上市销售,这将使定制 Xeon 受益于 NVLink 互联技术 [10] * 在客户端方面,将通过“托管 (bailment)”模式,将英伟达的图形芯片与自研 CPU 集成后推向市场,旨在创造新的 PC 品类,并避免类似 Lunar Lake 中嵌入式内存带来的零毛利率问题 [11] * 合作预计将为数据中心和 PC 市场带来整体市场规模 (TAM) 的扩张 [11] **4 AI 战略与加速器布局** * 公司的 AI 战略不仅限于加速器,也体现在 PC、传统服务器以及晶圆和先进封装业务上 [17] * 在加速器方面,公司专注于为推理市场开发一款推理专用 GPU,目标市场是代理 AI 和物理 AI,认为训练市场已被英伟达和 ASIC 充分服务 [17][18] * 公司也将定制化 ASIC 作为战略一部分,类似于博通 (Broadcom) 和迈威尔 (Marvell) 所做的 [19] * 公司认为自身在 x86 生态系统和系统级专业知识方面具有差异化优势,能够为超大规模客户提供 x86 或 ARM 基础的 ASIC 解决方案 [21] * 不排除通过收购或合作伙伴关系来增强 AI 战略的可能性,管理层将采取务实态度 [24][25] **5 财务表现与毛利率展望** * 公司对当前客户端和数据中心的毛利率水平均不满意,并有计划在2026年及以后实现毛利率改善 [30] * 在数据中心领域,过去过度追求性能而忽视了成本效率,现在正重新强调成本竞争力 [30] * 2024年第四季度毛利率指引约为 36.5%,较上一季度下降约 350 个基点 [32] * 毛利率下降的原因包括:剥离 Altera(贡献约 50 个基点的影响)、18A 制程早期爬坡的高成本、为应对供应紧张而采取的价格行动(如对 Raptor Lake 提价,但对 Lunar Lake 和 Arrow Lake 降价以填充产品线)[32][33][34] * Lunar Lake 产品中的嵌入式内存对毛利率构成挑战,其销量在第四季度和明年预计将增长,这带来了额外的毛利率压力 [35] * 长期来看,公司目标是与无晶圆厂 (fabless) 同行具有行业可比的毛利率和运营利润率,并且由于 IDM 模式的利润叠加,应略优于同行 [42] **6 供应状况与产能管理** * 公司目前面临供应紧张局面,预计第一季度将达到峰值,但紧张状况将持续到第一季度之后 [33] * 供应紧张涉及内部生产的 10/7 纳米制程,以及来自台积电 (TSMC) 的外包晶圆 [37][38] * 公司正积极将内部产能从 PC 转向服务器,因为服务器市场的供应缺口更大 [38] **7 制程技术进展与晶圆代工业务** * Panther Lake(基于 18A 制程)的良率改善现已进入行业平均的每月提升约 7% 的轨道,这增强了产品发布的信心 [39][40] * 18A 制程的晶圆最初来自成本较高的俄勒冈州工厂,预计从次年第一季度开始,成本结构更优的亚利桑那州工厂将开始产出晶圆,有助于降低成本 [41] * 晶圆代工业务的目标是在 2027 年底实现运营层面的盈亏平衡(基于 18A 制程的放量),但若赢得 14A 外部客户,由于需提前投入费用,可能会推迟这一时间点 [43] * 公司全力投入 14A 制程开发,并在早期阶段就与外部客户接触,其工艺设计工具包 (PDK) 成熟度远优于 18A 时期 [44][45] * 与 18A 相比(首次引入 GAA 晶体管和背向供电),14A 是第二代 GAA 和背向供电,在性能和良率上相比 18A 同阶段开发进度大幅领先 [46] * 如果停止 14A 开发,维持性资本支出预计为每年中高个位数十亿美元 [46] 其他重要内容 * 公司计划在次年下半年举办投资者日活动,届时可能会公布新的财务模型 [42] * 公司承认在应对外部客户需求方面,18A 制程的 PDK 存在成长阵痛,而 14A 在这方面已有显著改善 [45] * 公司对 Lunar Lake 的初始销量预期较低,但由于需求调整,其销量预计将高于最初预期,这对毛利率构成挑战但有利于客户 [35]
鸿腾精密20251111
2025-11-12 10:18
公司概况与业绩表现 * 公司为鸿腾精密(FIT)[1] * 2025年第三季度营收实现低单位数增长,毛利率达到23.5%,创同期新高[3] * 前三季度整体表现符合预期,维持第四季度及全年度展望[3][5] 核心业务与增长驱动力 * Cloud Data Center业务是核心驱动力,2025年第三季度同比增长33%[3] * 该业务占比预计从2025年的16%-17%提升至2026年接近20%,2028年接近30%[2][4] * AI相关产品比重从2024年前三季度的13%提升至16%[3][5] * 公司预计2026年至2028年复合增长率将超过20%[2][4] AI领域具体发展与产品价值 * 在AI领域,Power和Data产品稳健发展,垂直搜索解决方案增量显著[6] * 预计2026年AI相关产品单柜价值量可参考2-6万美元[2][6] * Power产品方面,作为LC Bus Bar首批供应商,单柜价值量有望从小几百美元提高到大几百美元[2][6] * 公司还在推进外置光源模组等CPO过渡方案[6] 市场机会与风险 * 公司认为未来ASIC和其他GPU链条上的放量会增加,但幅度可能不及NVIDIA客户[7] * OCP架构下MCL Cable等相关需求会增长,但增速相对较缓[7] * 基于保守预期提供指引,若ASIC市场超预期将带来上行空间[7] 资本支出与产能规划 * 公司维持原有的3-4亿美元资本支出计划[2][7] * 通过利用现有场地和新增机台来匹配新产品需求[2][7] * 以2025年的机柜数出货量为评估基础,若2026年显著提升将进行相应调整[2][7][8] * 相较于2023年,公司自2024年以来已逐步增加产能[8] 费用控制与利润率目标 * 公司计划将研发费用从当前的6-7%提升至8%的业界水平[2][9] * 以2025年16-17%的费用率为参考,致力于实现更高的运营利润率[2][9] * 将在海外扩张和降低EV成本方面进行同步思考[9] 其他重要产品进展 * 安费诺授权连接器产品需完成验证后才能进入生产,产能爬坡预计需三个月,预计2026年下半年趋于稳定[5][10] * 手机、消费电子和系统终端产品表现优于预期[3][5]