Workflow
半导体行业观察
icon
搜索文档
BESI的底气
半导体行业观察· 2026-03-23 10:10
BESI公司的战略地位与业务概况 - 公司近期因收购意向及其在先进封装领域的核心地位而受到广泛关注 [2] - 公司在2026年3月的投资者报告中重点阐述了其战略地位 [2] - 芯片贴装业务仍占其2025年营收的约80%,同时公司持续拓展混合键合业务 [2] - 在混合键合领域,公司已累计获得超过150份订单,拥有18家客户,并已部署首批集成生产线,展现了商业化与技术成熟度的双重优势 [2] - 其最新原型产品实现了50nm的精度和更高的产能,巩固了迈向下一代互连解决方案的路线图 [2] 先进封装行业趋势与市场前景 - 在先进封装领域,互连技术(如热压键合、混合键合、新一代倒装芯片)成为提升器件性能的关键因素,对实现2.5D和3D集成至关重要 [5] - 混合键合领域,芯片对晶圆技术正迅速崛起,预计其市场规模在2025年约为2.75亿美元,到2030年将以57%的复合年增长率增长至超过24亿美元 [7] - 预计到2025年,后端设备市场规模将超过70亿美元,其中芯片贴装因互连技术复杂化成为最具战略意义的领域之一 [7] - 仅热压键合设备市场就超过7.5亿美元,混合键合设备市场也超过1.5亿美元,凸显了高价值投资的集中方向 [7] - 2024年,前端封装设备支出首次超过传统的后端组装支出,此趋势延续至2025年 [7] - 目前,前端封装设备市场规模超过80亿美元,后端封装设备市场规模超过70亿美元,整个封装设备市场规模超过150亿美元 [7] 技术融合与行业整合动态 - 行业演变反映了前端和后端技术日益融合的趋势,先进封装技术将光刻、沉积、蚀刻、清洗、计量、晶圆键合和芯片贴装等工艺整合到统一流程中 [8] - 晶圆级封装、硅通孔和芯片集成技术的进步正在模糊传统技术界限,推动设备供应商提供更集成化的解决方案 [8] - 应用材料公司已通过持有9%的股份与公司建立紧密联系,并在接近大规模量产阶段的Kinex平台上合作,该平台是一种完全集成的芯片对晶圆混合键合解决方案 [8] - 更深入的整合将使应用材料公司直接掌控关键的互连环节,巩固其在不断扩展的封装价值链中的地位 [8] - 泛林集团也可通过整合其上游工艺优势和键合能力来增强自身实力 [8] - 阿斯麦虽然运营关联性不如前者直接,但鉴于欧洲对维持半导体产能的重视以及精密对准在先进封装领域的重要性,仍是一个可靠的战略参与者 [8] - ASM国际已将先进封装视为增长机遇,这使得公司成为该领域的潜在加速器 [8] 竞争格局与行业结构演变 - 公司身处充满活力且竞争日益激烈的环境,韩美半导体已在热压键合领域(尤其是在高带宽内存应用领域)确立稳固地位 [9] - ASMPT是后端封装领域的主要竞争对手,而库力索法则继续利用其在引线键合和芯片键合方面的传统优势,同时拓展至先进的互连解决方案领域 [9] - 包括韩华半导体、Semes、芝浦和东丽在内的其他企业也在不断增强自身实力 [9] - 竞争格局正在扩大,差异化和系统级整合的重要性日益凸显 [9] - 随着应用材料公司、泛林集团、东京电子、科磊、EV集团和SUSS MicroTec等领先企业围绕先进封装机遇展开合作,更广泛的设备层级结构正在演变 [9] - 像EV集团、SUSS和东京电子这样的晶圆级混合键合技术企业超越了传统的后端分类,进一步拓展了竞争格局 [9] 工艺挑战与价值凸显 - 在工艺层面,诸如表面处理、晶圆减薄、切割、底部填充和检测等相邻步骤的重要性日益凸显 [10] - 随着互连间距的缩小和2.5D/3D架构的日益复杂,良率管理变得至关重要,这进一步凸显了跨多个步骤的集成工艺控制的价值 [10] 行业转型与公司前景 - 对公司的兴趣凸显了更广泛的行业转型,公司不仅仅是一家高利润的组装设备供应商,而是处于下一代半导体制造的关键控制点 [12] - 随着人工智能、高带宽内存、芯片和光子学不断推动系统级创新,先进互连技术的重要性只会越来越大 [12] - 在下一轮周期中,能够将前端精准性与后端集成完美结合的公司将占据最佳位置,公司将成为实现这一转型的重要推动力量 [12]
自研芯片部署超140万片,亚马逊凭啥
半导体行业观察· 2026-03-23 10:10
文章核心观点 - AWS通过其自研的Trainium系列AI芯片及配套的软硬件生态系统,正在挑战英伟达在AI计算市场的主导地位,并已获得Anthropic和OpenAI等头部AI公司的采用,成为其关键云平台和计算能力供应商 [2][3][19][23] AWS与AI公司的合作关系 - AWS自Anthropic成立初期即为其主要云平台,该关系在Anthropic引入微软作为云合作伙伴后依然稳固 [2] - AWS与OpenAI达成合作协议,成为其AI智能体构建工具Frontier的独家云供应商,并向OpenAI提供2吉瓦(2GW)的Trainium计算能力 [2] - 微软可能认为OpenAI与亚马逊的合作协议违反了其自身与OpenAI的协议,该协议赋予微软访问OpenAI所有模型和技术的权利 [2] - Anthropic的Claude系统使用了超过100万个已部署的Trainium2芯片 [3] - 目前,Trainium2芯片的最大部署在Project Rainier中,这是一个拥有50万个芯片、于2025年底上线的AI计算集群,由Anthropic使用 [18] Trainium芯片的性能与优势 - AWS已在三代Trainium产品中部署了140万个芯片 [3] - Trainium芯片最初为训练设计,现已调整用于推理,而推理是当前AI行业最大的性能瓶颈 [3] - Trainium2处理了亚马逊Bedrock服务的大部分推理流量 [3] - 运行在新型Trn3 UltraServer上的新芯片,在性能相当的情况下,运行成本比使用传统云服务器低50% [5] - Trainium3结合新的Neuron交换机,通过网状网络降低芯片间通信延迟,在“性价比”方面打破各种记录 [6] - 亚马逊的芯片团队在2024年获得了苹果公司的公开赞扬,苹果认可了其Graviton CPU、Inferentia推理芯片以及当时新推出的Trainium芯片 [6] 亚马逊的芯片战略与生态系统 - 亚马逊的芯片策略是了解市场需求,然后打造具有价格竞争力的自有替代品 [6] - AWS芯片团队通过使Trainium支持PyTorch等流行框架,并声称转换“基本上只需要修改一行代码”,以降低开发者的转换成本,削弱英伟达的市场主导地位 [7] - AWS本月宣布与Cerebras Systems合作,将其推理芯片集成到运行Trainium的服务器上,以提供超强、低延迟的AI性能 [7] - 亚马逊的雄心不止于芯片,还包括设计承载芯片的服务器(如Trn3 UltraServer)、网络组件(Neuron交换机)、虚拟化解决方案(Nitro)以及液冷技术,以控制成本和提升性能 [7][21] - 亚马逊的定制芯片设计部门成立于2015年1月,通过收购以色列芯片设计公司Annapurna Labs建立,拥有十余年设计经验 [8] 芯片研发与生产细节 - Trainium3是一款采用3纳米工艺制造的尖端芯片,由台积电(TSMC)生产 [11] - 芯片“启动”过程是首次激活芯片以验证其设计,过程充满挑战,例如Trainium3原型曾因散热器连接问题需要现场打磨解决 [11] - 团队拥有配备焊接工作站和各类测试工具的硬件实验室,用于芯片的调试与分析 [12][14] - 团队设计了“Sled”(托盘)来放置Trainium、Graviton等芯片及配套组件,这些托盘与定制网络组件堆叠构成核心系统,例如支撑Anthropic Claude的系统 [15][17] - 团队拥有私有的数据中心用于质量控制和测试,配备最新的Trn3 UltraServer,其液冷系统采用封闭循环以重复利用冷却液 [18][21] 市场影响与内部重视 - 亚马逊首席执行官安迪·杰西表示,Trainium对AWS来说已经是一项价值数十亿美元的业务,并称其为他最兴奋的AWS技术之一 [23] - 在每次试生产活动前后,工程师们将全天候工作三到四周以解决问题,确保芯片能大规模投产 [23] - Bedrock服务客户群正迅速扩张,有朝一日可能会像AWS的EC2计算云服务一样庞大 [3]
Tower大涨,市值再创新高
半导体行业观察· 2026-03-23 10:10
公司市值与股价表现 - Tower Semiconductor目前市值达184亿美元,成为以色列市值第三高的上市公司,仅次于Teva Pharmaceutical Industries和Elbit Systems [2] - 公司股价自2026年初以来上涨近35%,过去一年上涨超过316% [2] - 公司当前估值是英特尔2023年54亿美元收购要约的3倍多 [2] - 在特拉维夫证券交易所,公司市值达440亿新谢克尔,排名第七;在华尔街估值约130亿美元,在以色列公司中市值排名第五 [7] 财务业绩与增长预测 - 2025年第四季度营收达4.4亿美元,同比增长14% [2] - 2025年第四季度毛利润达1.18亿美元,同比增长27%;营业利润达7100万美元,同比增长39%;净利润达8000万美元,同比增长48% [2] - 2025年全年营收达16亿美元,同比增长9%;全年净利润达2.2亿美元,同比增长6% [2] - 公司预测2026年第一季度营收为4.12亿美元,同比增长约15% [2] - 公司预计2025年全年营收将达到15亿美元,意味着14%的年增长率 [10] 战略投资与产能扩张 - 公司宣布了6.5亿美元的资本支出,并追加2.7亿美元用于扩大硅光子器件生产基础设施 [3] - 公司宣布将投资3亿美元用于扩建其硅光子生产线,此前已于2025年早些时候在该领域投资3.5亿美元 [8] - 公司曾计划投资3亿美元为英特尔位于新墨西哥州的工厂购置设备,以确保每月超过60万层光罩的产能 [3] - 大部分扩建项目位于以色列米格达勒哈埃梅克的工厂,该工厂将拥有最大的硅光子器件产能 [12] 业务转型与市场定位 - 公司从一家专注于模拟芯片的精品制造商,转型为人工智能革命的关键参与者 [7] - 公司通过与英伟达合作提供硅光子组件,将其增长与数据基础设施需求联系起来 [3] - 硅光子芯片成为数据中心不可或缺的部分,用于解决GPU处理器海量数据传输的瓶颈 [8] - 公司预计其数据中心相关业务的年收入将接近10亿美元,并预计到2026年底,数据中心产品将占其总收入的40%到45% [10][12] 管理层观点与未来展望 - 首席执行官Russell Ellwanger认为公司人工智能驱动的增长是结构性的,而非炒作,并预计业务增长势头将持续增强 [5][10] - Ellwanger认为数据中心向光子技术平台过渡是真实趋势,目前普及率仅20%-30%,最终将达到90%-100%,潜在市场规模可能增长三倍 [11][12] - 公司拥有10亿美元的净现金,足以支持进一步扩张,且无意进行股权融资 [13] - 公司一直在评估收购或扩张的机会,对特定的技术能力感兴趣,并有足够资金实现目标 [13] - 首席执行官认为英特尔目前已成为公司在服务器集群芯片领域的竞争对手 [13] - 公司拥有稳定的雇佣政策,多年来从未裁员 [14]
中微半导体加注Nor Flash,投资珠海博雅
半导体行业观察· 2026-03-23 10:10
中微半导体对外投资公告核心观点 - 中微半导体拟以自有资金1.6亿元增资珠海博雅,交易完成后将持有其20%股份,旨在通过战略投资加速自身存储芯片业务发展,完善“MCU+”产业布局 [2][6][7] 投资标的(珠海博雅)概况 - **公司背景与资质**:成立于2014年,是一家专注于NOR Flash等存储芯片研发设计的Fabless公司,拥有国家高新技术企业、国家专精特新“小巨人”企业等多项资质 [2] - **团队构成**:创始人及核心团队为海归博士及资深专家,创始人DI LI博士为闪存技术专家,拥有美光、飞索等国际大厂工作经历;公司员工118人,其中研发人员75人,占比63.56% [3] - **技术与产品**:同时在ETOX和SONOS两种NOR Flash工艺结构上研发,产品制程覆盖65nm至40nm,容量覆盖512Kb至2Gb,具有高速、低功耗、高可靠等优势,广泛应用于消费电子、工业控制、通信设备、汽车电子等领域 [4][7] - **财务与运营状况**: - 2023-2025年营收分别为1.80亿元、1.70亿元、1.97亿元,毛利率分别为-14.24%、4.10%、12.39%,处于持续亏损状态 [4] - 同期经营性现金流持续为负,分别为-6,493万元、-4,678万元、-3,097万元,主要依靠融资活动现金流维持运营 [4] - 产品结构持续改善:55nm/65nm成熟制程产品占比从93.7%下降至58.7%,50nm产品占比从6.3%提升至35.9%,40nm产品于2025年开始出货;1Gb大容量产品成功导入市场;毛利率逐年提升 [4][5] - 2026年以来,随着存储芯片市场回暖,公司营收大幅增长,毛利率快速提升,预计在获得足够营运资金后将进入快速增长期 [5] 投资交易细节 - **交易定价**:本次投资投前估值为6.4亿元,中微半导体增资1.6亿元,投后获得20%股份;定价参考了目标公司上一轮融资估值(投前20亿元)、近三年及2026年预测的财务数据、产品研发情况及协同效益 [6] - **资金来源**:使用公司自有资金投入,公告称不会对主营业务及财务状况产生重大影响 [8] 投资战略与协同效应 - **中微半导体战略**:公司是以MCU为核心的芯片设计公司,本次投资是实施“MCU+”战略、完善产业布局的关键举措;公司年初已发布首款SPI NOR Flash产品 [7] - **业务协同性**:MCU作为主控芯片常需与存储芯片搭配使用;中微半导体在存储领域技术积累尚浅,而珠海博雅拥有10余年NOR Flash设计、量产及市场经验,双方在技术、产品和客户基础上具有强互补性与协同性 [8]
玻璃芯片,新救星
半导体行业观察· 2026-03-23 10:10
玻璃基板技术概述 - 使用玻璃作为基板或层来连接多个硅芯片,是构建计算机硬件(尤其是AI芯片封装)的热门选择,旨在提升下一代硬件的性能和能效 [2] - 玻璃基板能更好地承受热量,减少因芯片高温运行导致的基板物理变形(翘曲),从而允许工程师不断缩小芯片封装尺寸,使芯片速度更快、能效更高 [2] 技术优势与潜力 - 玻璃的热稳定性允许工程师在每毫米面积上实现比有机基板高10倍的连接数,从而在相同封装面积内多塞入50%的硅芯片,提升计算能力 [5] - 玻璃更高效的散热性能使得芯片设计能够降低整体功耗,并且其光滑度(比有机基材光滑5000倍)能消除金属层压时可能出现的缺陷,提升芯片良率与性能 [5][6] - 玻璃能够引导光线,芯片设计人员可利用它在基板上构建高速光信号通路,这比目前使用的铜线能耗更低,在未来节能型AI计算领域潜力巨大 [7] - 独立市场研究公司IDTechEx估计,玻璃基板市场潜力巨大,有望将半导体玻璃市场规模从2025年的10亿美元提升至2036年的44亿美元 [6] 行业进展与商业化 - 韩国公司Absolics已在美国建成专门生产先进芯片玻璃基板的工厂,计划于今年开始商业化生产,其工厂目前每年最多可生产12000平方米玻璃面板,足以提供200万至300万个与英伟达H100 GPU尺寸相同的芯片封装所需的玻璃基板 [3][9] - 英特尔正致力于将玻璃应用于其下一代芯片封装,其研发团队已能可靠制造玻璃面板并大量生产测试芯片封装,并在2025年初证明采用玻璃芯基板的功能性设备可以启动Windows操作系统 [3][5][6] - 包括三星电子、三星电机和LG Innotek在内的多家大型制造商,在过去一年中显著加快了玻璃封装领域的研发和试生产工作,表明生态系统正从单一先行者向更广泛的产业竞争演变 [10] - 供应链公司如JNTC已在韩国建立工厂,每月可生产1万块半成品玻璃面板,并计划于2026年扩大产能、2027年在越南开设新生产线,表明技术正快速从原型走向商业化 [11] 研发背景与推动力 - 玻璃封装的早期研究始于2009年佐治亚理工学院的3D系统封装研究中心,该大学最终与SKC旗下的子公司Absolics合作 [9] - 2024年,Absolics与佐治亚理工学院的合作项目从美国“芯片计划”(CHIPS for America)获得了总额达1.75亿美元的两项拨款 [9] - 行业转向玻璃基板是因为传统有机基材(如玻璃纤维增强环氧树脂)存在局限性,例如电化学复杂性限制了连接精度,以及加热冷却过程中不可预测的收缩变形,大约十年前业界就已意识到这些局限性 [4][5]
湾芯展:执棋破局,筑就中国集成电路全球引领新标杆
半导体行业观察· 2026-03-23 10:10
全球及中国半导体产业宏观背景 - 2026年“十五五”规划纲要明确提出“超常规”布局集成电路产业,推动关键核心技术自主可控 [1] - 2026年全球半导体市场规模预计攀升至9800亿美元,同比增幅达27% [1] - 粤港澳大湾区已成为中国半导体产业的“增长引擎”,集聚超1.2万家产业链企业 [1] 湾芯展的战略定位与目标 - 湾芯展以“全局思维”布局,以“引领姿态”破局,目标成为“具有全球引领力的中国集成电路第一展” [1] - 展会致力于衔接产业、技术、资本、人才,搭建覆盖全产业链的协同平台 [3] - 2026年展会定于10月14日-16日在深圳会展中心(福田)举办,全力筑就具有全球引领力的产业平台 [12][15] 湾芯展的过往成就与行业影响 - 2025年湾芯展展览规模超6万平方米,吸引600余家全球参展企业及11.23万人次专业观众 [5] - 2025年展会全网曝光量突破10亿级,并连续两年入选“深圳发展改革十件大事” [5] - 展会创新推出的“湾芯奖”评选吸引近400万人次专业投票,百余家前沿企业脱颖而出 [5] 2026年湾芯展的规划与预期规模 - 2026年展览面积将突破7万平方米,展商数量预计超800家,规模再创新高 [12] - 目前95%展馆面积已完成预售,600余家企业锁定席位 [14] - 国际巨头如Applied Materials、TEL、KLA如期续约,国内龙头如北方华创、中微公司等重磅集结 [14] 展会核心内容与展区规划 - 2026年展会优化升级展区规划,聚焦芯片设计、晶圆制造、化合物半导体、先进封装四大核心领域 [14] - 重点打造AI芯片、RISC-V生态、Chiplet与先进封装生态三大特色展区 [14] - 同期举办湾区半导体大会及30余场专业论坛,邀请多位院士及行业领军人物 [14] 湾芯展的国际化与产业联动策略 - 2025年展会期间,全球半导体TOP30企业悉数亮相,参展企业覆盖20多个国家和地区 [7] - 超5000名来自中芯国际、三星、比亚迪等头部企业的采购商现场对接,2500余件年度新品集中首发 [7] - 2026年将重点定向拓展日韩、东南亚等半导体核心产区,深化与全球设备、材料领域龙头企业合作 [9] - 将重磅升级国际嘉宾阵容,邀请全球顶尖专家围绕AI算力芯片、先进封装等热点展开深度研讨 [10] 产业生态构建与协同发展 - 展会旨在打破产业链各环节壁垒,构建覆盖全链条的协同生态 [3] - 配套的资本对接、人才招聘、政策解读等活动,旨在完善“科技-产业-金融”协同生态 [14] - 展会推动中国半导体市场增量与国际市场刚需深度融合,为产业双循环发展注入新活力 [7]
国产MRAM制造迎资本风口,致真存储赋能无人机!
半导体行业观察· 2026-03-23 10:10
文章核心观点 - 国内首款搭载国产SOT-MRAM芯片的工业级无人机试飞成功,标志着该新型存储技术在低空经济和工业控制两大核心领域实现商用落地 [1] - 致真存储作为国内唯一可量产SOT-MRAM的企业,其技术突破与自建产线布局,使其成为国产MRAM产业化的重要标杆和稀缺的“设计+制造”一体化标的 [1][4][5][21] - MRAM(磁性随机存储器)作为“后摩尔时代”最具潜力的通用型非易失存储方案之一,其产业化面临多维技术壁垒,但应用前景广阔,覆盖低空经济、工业控制、汽车电子、AI、航空航天及商业航天等百亿级市场 [6][7][17][18][19] MRAM技术概述与优势 - MRAM是一种基于电子自旋力矩和磁隧道结(MTJ)的新型非易失性存储技术,突破了传统电荷存储技术的局限 [6] - 相较于SRAM、DRAM和闪存,MRAM兼具高速、低功耗、非易失性、高可靠(趋近于无限次擦写)等核心优势 [6] - 技术已发展至第三代SOT-MRAM,通过三端结构设计将读写电流路径分离,解决了前两代产品的痛点,实现了纳秒级写入、万亿次耐久,同时兼顾低功耗与高可靠性 [7] - 其性能优势包括:掉电数据不丢失、高速读写、高耐擦写、宽温域(-40℃~125℃)、抗辐射、低功耗,完美适配工业、航空航天等复杂环境 [7] MRAM产业化面临的挑战与壁垒 - **基础材料与微纳加工工艺**:磁隧道结的制备涉及超薄磁性多层膜,是半导体微纳工艺中材料最多、结构最复杂、精度要求最高的薄膜技术之一;磁隧道结尺寸需达到亚百纳米级精度,对薄膜沉积、光刻、刻蚀等环节的精准控制要求极高 [8] - **电路设计**:需要兼顾高速读写、低功耗、抗干扰、接口适配等多重需求,设计专用的读写电路和适配工业标准的接口(如SPI),并进行大量的仿真、流片验证与测试 [9][10] - **多学科融合与资源投入**:研发需要自旋电子学、磁学、材料学、微电子学等多学科人才协同,且周期长、投入大,对企业资金实力和研发决心是巨大考验 [11] - **制造端瓶颈**:MRAM制造需要硅工艺与磁工艺深度融合,而国内传统晶圆代工厂无相关磁工艺产线与技术储备,无法提供代工服务 [12] - **专用产线壁垒**:国内企业要实现产业化,必须自建专用产线,这需要数十亿元级别的资金投入,并具备工艺整合、产线管理与良率提升的全流程能力,壁垒极高 [12] SOT-MRAM在无人机领域的应用与优势 - **传统存储方案的痛点**:工业级无人机普遍采用的EEPROM写入速度以毫秒计,NOR Flash需按块擦写,受限于擦写延时,仅能记录故障发生前1~2秒的运行数据,关键参数易丢失;擦写寿命仅约10^4~10^6次;在高低温、强振动等复杂环境下数据留存能力弱 [13] - **SOT-MRAM的颠覆性优势**: - 纳秒级写入速度,无需擦除预处理,能实时捕获故障前微秒量级的核心参数,完整还原事故前的“黄金数据片段” [14] - 耐擦写能力远超EEPROM的100万次极限,适配长期高频次数据记录 [14] - 具备-40℃~125℃的宽温域适应能力与高可靠非易失性,在坠毁、强辐射等极端场景下仍能保障数据完整留存 [14] - 实时同步飞控参数,无需等待擦写延时,提升了导航定位精度和动态响应速度,支持多模式无缝切换 [14] - 应用价值:如同高速摄像机,能精准锁定故障瞬间的运行状态,大幅提升事故排查效率与准确性 [16] SOT-MRAM的广阔应用前景 - **低空经济**:除货运无人机外,还能适配巡检、应急救援无人机、通航飞行器等,解决实时数据记录、故障追溯、极端环境适配的核心需求 [17] - **工业控制**:可作为工业机器人、智能巡检设备、特种装备的核心存储底座,实现实时数据记录与状态监控,推动智能制造升级 [18] - **汽车电子**:尤其适用于自动驾驶,能满足高速数据记录需求,并适配-40℃~125℃的车规宽温域 [18] - **AI与边缘计算**:其高速、低功耗特性可作为AI加速器的片上缓存,降低能耗,并支持边缘设备快速启停而不丢失数据 [18] - **航空航天与国防**:其抗辐射、耐极端环境的特性,可满足卫星、航天器、特种装备的高端存储需求 [18] - **商业航天等新兴场景**: - 商业航天规模化发展(卫星星座、商业遥感等)催生了对高可靠、抗辐射存储芯片的海量需求,MRAM成为星载存储首选 [19] - 太空数据中心和太空算力的兴起,需要大容量、高可靠存储阵列作为数据中继和缓存节点,SOT-MRAM或将成为构建基石 [20] - 天地一体化数据存储备份需求增长,利用MRAM在太空轨道实现物理隔离的绝对安全存储,有望从概念走向现实 [20] 致真存储的核心竞争力与行业地位 - **技术突破**:公司聚焦第三代SOT-MRAM,突破了强自旋轨道耦合材料制备、高热稳定性磁性膜堆、磁隧道结高精度刻蚀、CMOS工艺集成等核心技术瓶颈,其SO25H256KSAC芯片性能处于国际领先地位 [21] - **产线布局**:面对国内代工体系空白,公司在青岛投资数十亿元落地国内首条具备量产能力的新一代磁存储后道专用微纳加工线,实现了CMOS工艺与磁学工艺的深度融合 [22] - 产线达产后将实现月产400万颗高端芯片,年产值可达数十亿元 [22] - **商业模式与稀缺性**:公司是国内唯一可量产SOT-MRAM的企业,并凭借自建产线成为稀缺的“设计+制造”一体化垂直整合制造企业,解决了国产MRAM的制造瓶颈 [1][21][23] - **商用验证与资本价值**:“天目山十三号”无人机试飞成功,验证了其MRAM技术的商用价值与产业化能力,使其成为国产MRAM产业化标杆和资本关注的优质标的 [1][21][23]
AI芯片十年路线图:英伟达和谷歌等联手撰文
半导体行业观察· 2026-03-23 10:10
文章核心观点 - 人工智能与硬件的发展轨迹密不可分,但当前缺乏统一的长期战略愿景来协调两者发展,导致创新碎片化并面临能源消耗不可持续的挑战[4][5] - 文章提出一个为期十年的人工智能与硬件协同设计与开发路线图,核心目标是实现人工智能训练和推理效率提升1000倍,并构建节能、自优化、无缝衔接且以人为本的智能系统[6] - 实现这一愿景需要根本性的跨层协同设计,涵盖从硬件技术、算法范式到应用与社会影响的各个层面,并通过学术界、产业界、政府及社区的深度合作来推动[6][21][23] 重塑计算和人工智能基础,实现1000倍效率提升 - 实现1000倍效率提升需要人工智能模型与硬件架构的深度协同创新,重点应对数据传输瓶颈[8] - 需转向内存沉浸式计算,通过计算和内存的密集三维集成实现超高带宽和低能耗[8] - 需开发低复杂度但高质量的人工智能模型,如混合模型、香农启发式模型等,以在不牺牲精度的前提下降低计算和内存需求[8] - 硬件感知模型需通过冗余减少、低秩低精度训练等技术进一步适应系统约束[8] - 结合跨层优化和透明的基准测试框架,推动模型、编译器、运行时、架构等紧密协同演进,以最大化每焦耳智能[8] 革新设计生产力和适应性 - 人工智能创新速度远超硬件和系统设计速度,需将人工智能融入开发每个阶段,构建人工智能在环设计工作流程[9] - 开放数据集和标准化基准对于电子设计自动化的透明度、可复现性和进步至关重要[9] - 利用专门的大型和小型语言模型实现细粒度的任务-智能体对齐,可以自动化并加速设计子任务,同时提升智能效率[9] 构建可靠且值得信赖的人工智能系统 - 人工智能的可靠性和可信度需通过权衡准确性、鲁棒性和效率来理解,鲁棒性必须涵盖模型和硬件[10] - 人工智能硬件范式应根据其在多维权衡曲面上的位置进行评估,优秀方案应在关键指标上接近帕累托最优[10] - 实现可靠性需要形式化验证、基于物理的约束和运行时监控[10] - 基准测试必须超越MLPerf,将鲁棒性、可解释性和可持续性纳入考量[10] 用于科学发现、机器人和自主代理的物理人工智能 - 人工智能创新的下一个飞跃在于将数据驱动学习与物理定律相结合,物理信息人工智能为建模科学和工程领域的核心多尺度现象提供了原则性方法[11] - 物理和具身人工智能系统对能效、实时响应和鲁棒性提出了严格的要求,需要学习、控制和硬件之间的紧密集成[11] - 该领域进展受到缺乏统一基准、数据集和可扩展求解器的阻碍[11] - 新兴的潜在世界模型可能为未来人工智能系统中集成符号推理、物理信息先验和更高效的决策机制奠定基础[11] 解决核心瓶颈并统一人工智能与硬件演进 - 未来前沿在于开发紧凑、节能的模型,使其在性能上与前沿模型媲美,同时能在边缘和嵌入式平台上高效运行[12] - 需要持续创新,结合注意力机制与互补架构、算法稀疏性、状态空间模型和系统级优化,以提高效率、可扩展性和泛化能力[12] - 下一代人工智能计算平台将基于异构的、以内存为中心的架构构建,集成人工智能加速器、可编程架构和量子处理器[12] - 跨领域重点包括人工智能与硬件的协同设计、全栈能耗优化、人工智能驱动的芯片和系统自动化以及大规模集群效率[12] - 随着智能体人工智能系统能力提升,人机交互必须始终是关注焦点,确保人类和智能体能够无缝协作[12] 人工智能与硬件的实践:迈向协调一致的全球影响 - 一个具有韧性的AI生态系统依赖于严谨的学术研究和批判性评估,以确保技术进步能有效转化为实际应用[13] - 在整个技术栈上协调一致的AI+硬件工作对于应对系统性挑战至关重要,这些挑战包括将试点系统扩展到持续部署、管理前沿模型攀升的成本和能源需求,以及弥合开放式学术研究与产业目标之间的差距[13] - 通过协调一致的政策、共享资源和持续合作,AI和硬件创新可以以可持续、公平且具有全球影响力的方式向前发展[13] 构建可持续的产学研政伙伴关系 - 实现宏伟愿景需要学术界、产业界和政府之间的深度合作[14] - 扩大诸如国家人工智能研究资源等政府举措,将有助于实现计算、数据和模型的民主化获取[14] - 弥合学术界长期探索性研究与产业界短期产品驱动型开发之间的鸿沟,需要共享基础设施、开源协作以及能够结合学术创造力与产业规模和重点的政策框架[14] 背景与动机 - 人工智能模型呈指数级增长,但发展轨迹难以为继,每一代前沿模型需要数量级更高的能源和内存带宽,单次训练运行消耗数百万千瓦时[16] - 当今以计算为中心的基础设施存在“内存墙”性能瓶颈,传输数据所消耗的能量超过了计算数据所消耗的能量[16] - 软件框架和算法进步速度远超硬件开发周期,缺乏系统性的协同设计导致了各自为政的局面[17] - 未来发展需要重新思考“扩展”本身,采用节能、自优化和架构自适应的系统,并以每焦耳的智能、可信度和适应性作为衡量成功的标准[17][18] 激进变革的理由 - 人工智能的扩展应从以计算能力提升为核心转向以计算能力优化为核心,未来系统必须具备节能意识、自我优化能力和架构自适应性[20] - 需从以计算为中心向以内存和数据为中心的架构转变,以突破内存和性能瓶颈,这要求在计算堆栈的各个层面进行创新,并通过协同设计确保效率、可扩展性和设计生产力同步提升[20] AI+硬件协同演化的多层次愿景 - 未来进步来自三个抽象层面的协同创新:硬件技术、算法和范式、以及应用和社会影响,它们构成一个紧密耦合的动态反馈回路[22][23] - 硬件层定义性能、能耗和可扩展性边界;算法层将硬件限制转化为高效方法;应用层驱动新要求并激励整个技术栈创新[23] - 这种相互依赖性要求持续的跨层协同设计,使人工智能帮助设计硬件,硬件加速人工智能,两者共同演进以响应社会优先事项[23] 硬件层:硬件技术 - 硬件设计需进行根本性创新以实现千倍效率提升,关键方向包括以内存为中心的架构、高密度3D单片集成、3D芯片堆叠、内存计算和模拟人工智能加速器[25] - 连接性和计算协同设计至关重要,包括光子和光电互连以及人工智能优化的系统拓扑和路由策略[25] - 量子-经典融合为混合系统开辟新机遇,将经典人工智能流水线与量子处理器相结合[28] - 需要人工智能驱动的电子设计自动化成为硬件工作流程的核心组成部分,利用语言模型来自动化设计空间探索、代码生成、验证和系统级协同优化[28] 算法层:算法与范式 - 算法需具备硬件感知能力,硬件需具备人工智能自适应能力,以弥合人工智能演进周期(月)与硬件演进周期(年)的差距[29] - 人工智能在环设计自动化将彻底改变架构、编译器和系统的构思方式,使基于学习的方法能近乎实时地优化内存层次结构、互连和微架构[29] - 硬件感知的训练范式将通过低精度计算、稀疏性、模块化和内存高效执行来提高效率[29] - 新的学习范式,如物理信息学习和潜在世界模型,承诺构建能够推理物理过程而不仅仅是拟合数据的AI系统[29] 应用层:应用与社会影响 - 人工智能系统最终必须满足人类和地球的需求,同时保持计算的可持续性[30] - 到本十年末,训练一个前沿模型所消耗的能源可能相当于整个国家的能源消耗,引发环境、经济和伦理问题[30] - 现实世界的应用对能源、延迟、鲁棒性等提出的限制,反过来推动新算法范式的出现和对硬件的具体设计目标[30] - 衡量成功的标准必须从原始吞吐量转向每焦耳的智能,使技术进步与全球可持续发展目标保持一致[31] 跨层协同设计:从各自为政到协同增效 - 未来的变革源于跨层的协同设计,算法必须适应物理限制,硬件必须演进以服务于学习动态,系统软件必须充当连接组织[32] - 优化端到端能源利用需要统一的抽象概念,将模型结构与芯片布局、运行时调度乃至散热策略联系起来[32] - 利用人工智能模型进行硬件生成、验证和仿真,可以将从概念到原型的周期从数年缩短到数月甚至数周[33] 硬件技术的关键要点与挑战 - 系统级限制(供电、散热、可靠性、数据传输)已成为比芯片级因素更重要的制约因素,需要在机架和整个计算集群间进行协同设计[39] - 数据移动已成为主要瓶颈,跨内存层次结构和互连移动数据的能量成本远超算术运算[39] - 连接性与计算能力同样重要,性能扩展越来越依赖于互连带宽、延迟和拓扑结构[39] - 密集的3D集成和异构封装打破了逻辑、内存和互连之间的传统界限,实现了新的算法数据流[39] - 硬件必须具备适应性,必须是可重新配置和可编程的,以跟上快速发展的人工智能算法[40] - 人工智能必须帮助设计硬件,未来系统的规模和复杂性需要人工智能驱动的EDA,形成闭环反馈[40] 硬件层的主要挑战与机遇 - 主要挑战包括内存和数据传输壁垒、连接扩展极限、热力及电力输送限制以及设计复杂性爆炸式增长[42][44] - 关键机遇包括:1) 采用跨层、系统中心的AI硬件设计视角,需要新的硬件抽象和评估方法[45];2) 以内存为中心和内存内计算作为算法使能器,提供卓越的能源效率和计算密度[46];3) 利用3D集成与异构封装实现面向新型数据流的设计[47];4) 通过光子和光电连接实现扩展性突破[48];5) 进行连接性-计算-拓扑协同设计[49];6) 发展人工智能驱动的设计自动化作为关键倍增器[50];7) 开发用于超高密度3D集成电路的热支架材料[51] 关键问题及答案(硬件) - 硬件与算法创新均不足,需要两者不断协同演进[52][53] - 专业化和通用性可通过分层和模块化设计共存,例如通过专用加速器、Chiplet和可编程接口组合[54] - 人工智能系统能容忍相当程度的近似性和异构性,许多工作负载本质上是统计性的,可结合鲁棒性感知训练等技术[55] - 传统工作流程无法跟上AI创新,但人工智能在环硬件设计、生成式EDA和可重用芯片生态系统可显著缩短设计周期[55] - 成功衡量标准应从峰值浮点运算次数转向系统层面指标,如每焦耳智能、端到端延迟和对不断演进算法的适应能力[56] - 社会和应用需求(如能效、鲁棒性、边缘部署)必须反馈到硬件设计中,确保创新与社会影响保持一致[57] 重要的未来趋势(硬件) - 人工智能系统进步的定义正在转变,从优化单一维度(模型规模)转向融合解决方案以提升所有维度的设计质量,智能效率将成为核心指标[61][62] - 近期使能技术(2-5年)包括:支持量化和稀疏性的领域特定AI加速器、异构计算节点、高带宽内存集成、3D封装和基于芯片的架构、硬件感知编译器、生态系统标准化、边缘和设备端AI以及混合统一内存层次结构[64][65] - 中长期使能技术(6-10年)包括:量子加速人工智能、光子和光学互连、光子加速器和模拟-光学混合计算、更广泛的内存计算和模拟计算、密集3D异构集成、超越CMOS的新材料技术以及超可扩展分布式人工智能系统[65][66] 可扩展人工智能+硬件的算法和范式 - 算法创新带来的效率提升效果可媲美甚至超越单纯的硬件扩展,过去的架构变革表明根本性变革能释放此前无法企及的可扩展性和效率[79] - 训练和推理对系统提出截然不同的要求,必须视为不同的协同设计目标,训练优先考虑吞吐量和统计效率,推理(尤其是物理AI系统)则需在严格功率预算下实现毫秒级延迟和极高能效[79] - 实现物理人工智能效率的量级提升,需要针对实时推理专门优化的软硬件堆栈,包括可预测的内存层次结构、局部性优先执行和领域专用模型[80] - 目标的实现需依靠密切的跨学科合作,以缩小模型/算法开发与硬件路线图之间创新速度的不匹配,人机交互仍是重中之重[80] 算法与范式的主要挑战与机遇 - 需解决孤立的硬件开发和模型设计问题,未来硬件必须采用跨层、系统中心的设计视角,将算法、编译器和物理平台紧密耦合,并暴露数据移动、内存局部性和能耗成本作为一等基本要素[81][82] - 需克服算法暴力破解与检索优势导致的效率下降问题,需要新的学习算法来利用深度内存层次结构,将优化目标从浮点运算次数转向内存流量和数据局部性[83] - 需应对能量、存储和互连壁垒,近内存/内存内计算、3D集成和光互连是有希望的方向[84] - 需解决利用率低和协同设计差距问题,实际部署中系统利用率通常仅5%至20%,需要自动化、跨层设计空间探索和自改进系统[85] - 优化必须针对整个吉瓦级集群,而不仅仅是单个节点,目标是在整个部署范围内优化每瓦性能和每瓦精度[86] - 设备端人工智能既是挑战也是机遇,推动了新的硬件创新和特定应用模型与专用硬件的紧密协同设计[87] 关键问题及答案(算法与范式) - 可扩展的瓶颈是能源限制、内存瓶颈、互连架构限制、基础设施利用率不足以及缺乏抽象层,解决方案包括内存内计算、3D内存、早期协同设计和集群级优化[88][89] - 体积小10-100倍的模型通过专注于特定应用领域可以实现类似功能,途径包括剪枝量化、特定领域蒸馏、新型架构、异构硬件和混合部署策略[89] - 注意力机制并非万能,卷积神经网络、状态空间模型和扩散模型同样重要,硬件应重视可重构原语和提高内存利用率[90] - 理想的硬件架构是异构、大规模并行、以内存为中心的系统,具有节能核心、3D堆叠内存、高效连接支持和光链路,并需解决部署复杂性和软件集成问题[91] - 最重要的研究重点包括人机交互、跨层协同设计、人工智能赋能的量子计算、人工智能驱动的芯片设计自动化以及自我改进系统[92] 重要的未来趋势(算法与范式) - 未来基础设施将采用融合异构堆栈,集成经典计算、AI专用计算、可重构结构和量子计算机,并建立光学全球链路[93] - 计算与内存将融合以克服能耗/延迟限制,内存内计算、3D堆叠和以内存为中心的数据流将成为主流[93] - 将出现小型模型与大型模型的共生关系,大型模型作为知识源,紧凑型小型语言模型在边缘高效运行,并由多智能体框架协调[93] - 机制理解将驱动专业化,模型内部表示的知识将转化为新的数据结构、内核和硬件指令,实现内核的自动生成和验证[93] 十年后成功的定义 - 硬件的成功体现在异构组件间的无缝互操作性、数据传输最小化、连接性透明扩展以及硬件能随算法演进而调整[72] - 成功意味着硬件平台可通过软件和编译快速重新专门化或结构重新配置,从而无需重新设计芯片即可部署新的AI模型和工作负载,缩小硬件与AI创新速度的差距[72] - 算法的成功需要可重复的多指标评估,并实现能够根据人类意图可靠执行复杂任务的系统[98][100] - 将出现自优化流水线,模型能够自我调度、合成内核并与硬件协同演化,人工智能生成和验证的内核将成为标准[99] - 将实现100倍的端到端能源效率,并在千兆瓦级规模下达到≥60%的集群持续利用率[101] - 将建立完全可互操作的异构系统,具有无缝协调和光纤全球链路[102] - 将形成一个成熟的领域调整型小型语言模型生态系统,由从开放教师模型中提炼而来,并部署在多智能体框架中[102] - 将实现可自我改进的芯片和系统人工智能管道,使硅设计周期加快3倍,并具有可预测的性能、功耗和面积以及经过验证的内核[102] 人工智能与硬件的实际应用及社会影响 - AI+HW协同设计不仅能实现更快的系统,还能催生全新的应用领域,如智能体AI、自主发现和与物理世界的实时交互[106] - 未来十年,AI软硬件的进步将从根本上改变几乎所有行业的生产力,实现前所未有的实时推理、感知和控制规模与经济性[106] - 跨层协同设计对于将AI扩展到物理世界至关重要,因为物理系统必须在严格的实时性、安全性、能耗和可靠性约束下运行[106] - 节能型人工智能将能够实现大规模气候建模、材料发现、可再生能源优化等,而不会产生不可持续的碳足迹[107] - 在科学和健康领域,人工智能加速器将推动药物研发、精准医疗、先进医学成像和持续健康监测[107] - 安全、可靠且注重隐私的人工智能系统将加强网络安全、关键基础设施保护和国家安全[107]
直击2026上海光博会,解锁后摩尔时代创新密码
半导体行业观察· 2026-03-22 10:42
文章核心观点 在后摩尔时代与AI算力需求爆发的双重驱动下,半导体与光电子技术的融合创新成为产业发展的核心命题,产业链各环节的协同联动愈发关键[1]。近期举办的产业论坛汇聚了领域内专家与企业,从材料、器件、封装、测试到系统应用,全方位探讨了技术突破与产业发展机遇,展现了底层技术的硬核突破与产业协同的强大合力[3][42]。 二维半导体:后摩尔时代的核心材料 - 二维半导体被全球产业界公认为延续摩尔定律的终极路线,台积电、英特尔、三星等国际巨头及IMEC、IRDS等研究机构均已明确布局,研判其将在1nm节点后作为增强组件融入异质集成系统,并有望在2029年实现超低功耗应用落地[6] - 国内科研力量在二维半导体领域成果显著,以复旦大学、上海交通大学等为代表的高校在材料制备、器件集成等方面取得国际顶刊成果,并获得国家及地方政策持续加码[6] - 国内企业原集微已建成国内首条二维半导体工程化示范工艺线,预计2024年6月正式通线,并于9月实现等效硅基90nm制程的小批量生产,其规划到2029年有望实现全球首款二维材料芯片的量产[6][7] 硅光技术:赋能高速AI光连接 - AI集群算力扩张驱动硅光市场爆发,预计2026-2028年800G/1.6T/3.2T光模块需求将持续攀升,其中1.6T产品2028年市场规模预计达45亿美元,硅光芯片在数据中心等场景的收入年复合增长率将超45%[10] - 硅光异质集成是核心突破方向,通过融合Si、SiN、TFLN、InP等多种材料解决关键难题,例如Intel片上InP激光器实现80℃下60mW输出功率,TFLN-Si异质集成调制器带宽已突破120GHz[10] - 国科光芯已建立国内首个8英寸低损耗(0.1dB/cm)氮化硅量产平台,工艺良率超95%,并实现400G/800G/1.6T Si/SiN及TFLN/SiN Tx-PIC芯片的量产,其激光雷达年出货量超100万台[10] 硅电容:解决“最后一英寸”能源瓶颈 - AI芯片功率密度已突破1000W,机柜功率密度达500kW,传统MLCC电容难以满足低压大电流带来的电源完整性挑战[14] - 硅电容凭借pH级ESL、mΩ级ESR、-55~200℃宽温工作等核心优势,成为破解能源危机的关键,其温度稳定性相比MLCC提升30倍,无直流偏置降容问题,寿命长达50年,且可超薄嵌入封装,厚度低至50μm[14] - 随着AI服务器与光模块升级,硅电容市场将迎来爆发式增长,2027年相关市场规模预计达117亿美元[14] 主动视觉:构建万物互联的“智慧之眼” - 主动视觉技术凭借“看到空间、看穿物体、看到光场”的优势,成为硅基智能时代的“智慧之眼”,以克服传统2D视觉的精度与适应性瓶颈[17] - 光鉴科技依托全栈自研能力,突破苹果专利封锁,开发了全球首个国产纳米光子芯片,构建了sToF/SLAM/生物识别全技术体系,累计申请1000+项中国专利及37项国际专利,80%员工为研发人员[17] - 公司已实现多场景商业化落地:作为微信刷掌支付唯一量产供应商,构建了全球最大的刷掌支付网络;在机器人领域市占率达100%;生物识别业务已拓展至东南亚、日韩等海外市场[17] 光电融合:构建算力新范式 - 多模态大模型参数破万亿推动算力需求爆发,传统电互连在带宽、延迟与功耗上存在瓶颈,光互连与光计算凭借距离不敏感、低延迟、低功耗、并行能力强等优势成为突破方向[21] - 光互连市场快速扩张,2025年销售额预计超230亿美元,CPO技术成为巨头布局焦点[21] - 曦智科技构建了“光互连+光交换+光计算”全栈技术体系,推出国内首款xPU-CPO光电共封装原型系统,其光子矩阵计算技术实现单个矩阵乘法延迟<5ns、能效比>10Tops/W,大幅优于传统电计算[21] 先进封装EDA:重构芯片设计路径 - 后摩尔时代,Chiplet堆叠技术成为突破算力、成本与封锁困局的最优选择,但异质异构集成等挑战凸显了传统EDA工具的局限性[24] - 硅芯科技提出“EDA+”新范式,构建3Sheng Integration Platform一体化平台,涵盖架构设计、物理设计、分析仿真、多Chiplet集成验证、Multi-die测试容错五大中心,实现跨层级协同设计[24] - 该平台支持2D/2.5D/3D多种封装形态,兼容Micro Bump、Hybrid Bonding等互连工艺,可实现信号完整性、电源完整性、热仿真的多物理场协同分析,并已落地多个客户案例[24][25] AI驱动的测试测量革新 - 测试测量行业正经历从硬件盒子到软件定义的范式转移,Liquid Instruments的Moku平台依托高性能FPGA与操作系统,实现“一台设备即整个测试台”的灵活部署,涵盖15+种标准仪器[28] - 其最新Moku:Delta设备搭载AMD UltraScale+第三代射频SoC FPGA,具备2GHz带宽、8通道与<10nV/√Hz低噪声特性,并配备32通道数字I/O[28] - 公司核心创新“生成式仪器”技术,允许用户以自然语言描述需求,通过Agentic AI合成HDL代码并快速生成定制化仪器,例如可在分钟级完成卡尔曼滤波器的开发与20项功能测试[28] 全栈硅光互连解决方案 - AI算力需求以每年4.5倍的速度增长,传统电互连面临带宽、功耗和拓扑灵活性挑战,孛璞半导体提出从高速光收发到智能光交换的全栈硅光互连解决方案[31] - 其硅光芯片具备超低损耗(边缘耦合器插损小于0.8dB)、高速调制等优势,支持1拖8单激光器驱动8通道,200G/lane的PIC芯片EO带宽超过65GHz,并与NVIDIA SN5600交换机实现72小时稳定互通[31] - 针对节点内Scale-up瓶颈,公司推出硅光OCS解决方案,其8×8硅光OCS已完成系统样机并通过全面可靠性试验,可实现任意无阻塞直连,为国产算力芯片提供高效互连范式[31] 光子芯片:支撑AI与量子计算 - AI算力需求呈指数级增长,2025-2030年全球算力规模年复合增长率预计达79.5%,光子芯片凭借高带宽、低损耗、低能耗特性成为AI与量子计算的核心硬件支撑[36] - 图灵量子基于薄膜铌酸锂材料打造QuChip光子芯片,实现波导损耗<0.1dB/cm、带宽>100GHz、单片集成器件数超30000个的性能,并依托国内首个光子芯片中试线实现6-8英寸晶圆量产能力[36] - 其光子芯片覆盖多场景应用,GCS-HiCPO方案支持高密度光电共封,扇出密度较传统方案提升50倍;量子计算芯片已实现>110GHz调制带宽,单光子产率超10^10 Hz/mW[37] 高速光互联测试方案 - AI算力集群推动光互联技术快速演进,1.6T产品将于2026年逐步上量,3.2T技术预计2028年落地,CPO商用化加速,对测试设备带宽与性能提出严峻挑战[40] - 万里眼推出90GHz超高速实时示波器,带宽覆盖25G~90GHz,采样率达每通道100G~200GSa/s,存储深度4Gpts(同级别业界2倍),底噪低于1mV,典型ENOB超5.0 bits,可有效提升信号眼图20%+裕量[40] - 该方案集成智能消噪算法与多维光电信号分析工具,支持多种调制格式,已成功应用于1600ZR光传输系统、448Gbps速率系统等场景的性能验证[41]
鑫图光电:攻坚卡脖子技术,以硬核技术打造科学成像解决方案标杆
半导体行业观察· 2026-03-22 10:42
公司概况与市场地位 - 公司成立于2006年,员工规模已达260余人,在上海、成都、新加坡等多地设有办公室 [1] - 客户广泛覆盖生命科学、物理科学、半导体应用等众多行业 [1] - 公司长期致力于科学成像解决方案,凭借高灵敏度相机、TDI相机、软线相机、高分辨率相机等多款核心产品,成为行业内重要的科学成像解决方案提供商 [1] - 公司的行业角色已从单纯的器件供应商,升级为更早参与客户研发过程、与客户携手解决问题的专业成像伙伴 [3] 核心技术平台与研发模式 - 公司摒弃传统人力堆砌定制模式,构建了高信噪比成像、特殊波长探测、极端环境适应、数据传输控制四大核心平台 [2] - 将制冷真空封装等关键技术沉淀为可复用模块,实现底层能力平台化、交付形态模块化 [2] - 面对定制需求,可在成熟架构上快速配置与系统级调整,大幅缩短开发周期的同时保障工业级可靠性 [2] 新产品与性能突破 - 推出工业检测领域的Gemini 16K TDI相机,实现16K分辨率,500KHz行频稳定运行,工作温度控制在33摄氏度左右 [2] - 推出弱光成像产品Aries 6504 Pro,读数噪声低至0.43个电子,零下20度制冷时暗电流仅0.01个电子每秒,每像素全幅帧率可达297帧每秒 [2] - 推出高通量成像产品Libra 5514,拥有30.5毫米大版面,全幅分辨率最高670帧每秒,数据吞吐量约9.38G像素每秒 [2] - 公司率先推出支持100G CoF接口的相机,旨在打破极速扫描场景下的海量数据传输瓶颈 [2] 质量管理与服务体系 - 公司建立了全生命周期的质量管控体系,研发初期引入严格质量评估标准 [3] - 制造环节依托极端环境适应平台,所有模块化组件及整机出厂前均通过高低温老化测试与一次性校验 [3] - 售后环节实施科学的客户分类与服务标准体系,推动前端应用数据与售后反馈快速闭环,反哺研发与质量控制迭代 [3] 发展战略与未来展望 - 公司从专注核心性能打造,将相机从“能用”做到“好用”,发展到洞察行业需求,串联光学前端、成像采集和传输能力形成完整技术体系 [3] - 未来将继续深耕科学相机核心技术研发,持续突破行业技术难题 [3] - 目标是以完善的技术体系、可靠的产品质量、专业的定制化服务,为科学研究、工业检测等众多领域提供更优质的科学成像解决方案 [3] 市场活动预告 - 公司将于2026年3月25日至27日,以“专注挑战性成像”为主题亮相VISION CHINA 机器视觉展,展位为W4·4543 [4]