Workflow
SRAM
icon
搜索文档
“中国芯片起步晚、发展快”这个说法,并不准确
观察者网· 2026-02-01 14:11
文章核心观点 - 美国众议院外交事务委员会通过两党联合提案,意图将先进AI芯片对华销售的审查权收归国会,并参照军售模式进行监管,凸显了美西方在关键技术上对华“卡脖子”的长期策略 [1] - 面对外部封锁,中国芯片产业正加速推进自主可控进程,在成熟工艺领域已占据全球领先份额,并全力攻坚先进制程,芯片自主化率逐步提高 [1] - 中国芯片产业通过“从上往下”的独特发展路径,从应用和整机制造逐步向下穿透至芯片设计、制造,最终攻坚最底层的设备,目前已取得包括存储芯片自产、7纳米工艺突破、设备国产化等多方面实质进展 [18][26][27] - 中国芯片产业在基础技术(如光刻机)和芯片设计领域(缺乏全球影响力巨头)仍面临根本性挑战,但人才与资本方面的挑战正在快速缓解 [21][22][25] - AI大模型的发展极大促进了芯片行业需求,导致产能全面紧张,同时中国因算力限制被迫在模型优化和计算架构上寻找创新路径 [29][32] - 到2030年,中国芯片产业的目标是实现全产业链自给与自主可控,并涌现出具有国际竞争力的芯片企业 [38] --- 根据相关目录分别进行总结 全球芯片产业格局与历史演变 - 芯片已成为现代社会的基础性产品,广泛应用于手机、汽车、家电等各类设备,汽车已成为芯片的重要市场,一辆车可能装有上千个芯片 [2][3] - 芯片是第三次工业革命(信息革命)的核心,并在第四次工业革命中因强电(能源)与弱电(信息)的融合而扮演不可或缺的角色 [4][5] - 影响全球芯片格局的关键技术节点包括:晶体管的发明及随后集成电路的诞生、60年代DRAM/SRAM及90年代闪存(Flash)的发明、60年代CMOS技术的发明,以及本世纪晶体管从平面结构转向立体结构(如FinFET、GAA) [7][10][11] - 影响全球芯片格局的关键产业决策包括:美国早期对半导体产业的扶持、90年代通过打压日本并扶持韩国改变产业格局、以及80-90年代中国台湾半导体产业的崛起 [11] - 晶圆代工模式的兴起是产业模式演变的重要节点,它促成了全球半导体产业的深刻分工,导致芯片制造业向东亚聚集,而美国在芯片设计领域保持领先 [12][13] 中国芯片产业的发展路径与现状 - 中国芯片发展的起步并不晚,晶体管和集成电路发明后约六七年中国便已跟进,但文革期间与遵循摩尔定律快速迭代的西方拉开了巨大代差 [14] - 改革开放后,中国芯片产业走的是“从上往下”的独特发展路径:从最上层的软件、互联网和整机组装(如电脑、手机)开始,逐步向下渗透至芯片级设计、芯片设计、晶圆制造,最后才攻坚最底层的半导体设备 [15][17][18] - 中国芯片产业在晶圆代工模式兴起的产业革命中错过了先机,直到2010年以后在晶圆制造领域才慢慢有起色,半导体设备领域的大规模投入则是在中美贸易战之后 [19] - 目前,中芯国际、华虹等主要代工厂产能利用率持续满载,在成熟工艺领域已占据全球领先份额,并全力攻坚7纳米乃至5纳米技术 [1] - 中国芯片产业在“两头”面临根本挑战:最底层的基础技术(如光刻机)尚未完全国产化;芯片设计领域缺乏具有全球影响力和主导生态的行业巨头 [21] 中国应对“卡脖子”的进展与挑战 - 在存储芯片领域取得重大突破:长江存储、长鑫存储在DRAM和Flash领域已实现国产化,并能在世界排名中进入前几名 [26] - 在代工工艺方面突破了7纳米,且产能正在扩大 [26] - 设备国产化进展较快,除了光刻机,主要设备基本都有国产替代;材料方面大部分已能覆盖 [27] - 在光刻机方面实现了从零到一的突破,已有民营企业做出微米级光刻机,预计到2030年能解决光刻机问题 [28] - 因工艺限制,设计领域转向自主创新,通过架构设计(如采用国产12纳米工艺做出指标超过英伟达5纳米H200的芯片)和先进封装技术来弥补工艺差距 [28] - 人才储备挑战快速缓解,工程师基数大,海归人才增多,队伍壮大迅速 [22][25] - 资本投入相当充裕,除美国外,全世界可能没有其他地方像中国这样有大量资金投入该领域 [25] AI发展对芯片行业的影响及中国的应对 - AI大模型(如ChatGPT)的出现极大促进了芯片行业,导致对内存、高端工艺产能的需求激增,造成全球产能全面紧张 [29][32] - 中国因被“卡脖子”(高端GPU受限、7纳米工艺相对落后、产能不足),被迫在有限算力下寻找新路径,包括优化模型本身、探索新的计算架构,以用不那么顶尖的芯片实现可用的大模型推理 [32] - DeepSeek的出现展示了用更低成本实现目标的路径,使得中美模型发展路径开始分化 [30] - 在多项大模型基准测试中,中美之间的差距从2023年底到2024年底已显著缩小 [36] - 中国发展AI应结合自身条件竞争,劣势在于半导体工艺落后,优势在于制造业强、新硬件落地快 [33] 未来展望与建议 - 到2030年,中国芯片产业的目标是实现全产业链自给与自主可控,并不再害怕被“卡脖子” [38] - 希望到2030年,中国能涌现出几家真正具有国际竞争力的芯片企业,改变目前全球前十芯片设计公司中无中国大陆企业的局面 [21][38] - 芯片行业的发展需要政府与市场共同推动、相互配合,探索“看得见的手”和“看不见的手”更好协同的路径 [39] - 在开放合作与自主可控之间需平衡,能合作则合作,不能合作则自主发展 [36]
SK海力士、三星们的巨额利润,就是中国存储企业的机会
华尔街见闻· 2026-01-27 10:12
行业现状与市场格局 - 存储芯片行业正经历超级周期 DRAM价格在短短几个月内飙升300-400% [1] - 供应短缺为全球存储芯片市场创造了机会窗口 三星 SK海力士和美光无法满足全球需求 [1] - 中国存储制造商正利用此窗口期进入市场 其扩张潜力涵盖消费零售和企业级市场 即使占据5-10%的市场份额也足以为未来增长积累动能 [1] 中国厂商的技术追赶 - 中国存储制造商正以惊人速度追赶韩国领先企业 例如长鑫存储科技(CXMT)从开发HBM2技术到跃进至HBM3开发阶段仅用了约半年时间 [2] - CXMT的加速进展得益于自身资金以及地方政府和华为的投资 其新技术测试在自有工厂及华为投资的广东和上海工厂进行 [2] - 这种合作模式使公司能缩短研发周期 快速实现技术创新的商业化 [2] 市场窗口的战略影响 - 当前市场机遇对中国企业具有双重价值 全球供应紧张降低了客户对技术代差的敏感度 为相对落后的产品创造了市场空间 [3] - 持续的高价格环境为中国企业提供了充足的利润空间来支撑技术研发投入 [3] - 如果供应短缺持续到2027年上半年或更晚 将给予中国制造商更多时间来获取技术专长 [3] - 韩国企业面临的风险在于 若未能将当前暴利转化为更高的技术壁垒 市场降温后中国竞争对手可能侵蚀其优势地位 [3] AI时代的技术发展趋势 - AI性能瓶颈已从核心计算能力转向存储 功耗将决定存储制造商能否进入边缘AI市场 [4] - 尽管HBM目前仍是主导技术 但其存在结构性局限 替代方案将不可避免地出现 [4] - 一个关键趋势是SRAM使用增加 尽管成本更高、占用空间更大 但其超低延迟使其在某些AI模型中比传统DRAM更具吸引力 [4] - 未来技术进步将聚焦于硅通孔(TSV)密度、缩短存储器与核心之间的距离 以及开发超越硅中介层的新型互连技术 [4]
北京君正:与华力微的合作主要涉及SRAM等
每日经济新闻· 2026-01-26 13:04
公司业务与产品 - 公司eMMC产品目前产能比较紧张 [2] - 公司后续将持续加强与供应商的合作与沟通以应对产能紧张问题 [2] - 公司与华力微的合作主要涉及SRAM等产品 [2] 供应链与采购 - 公司向华力微采购的产品为SRAM等 [2]
这一创新,打破内存微缩死局!
半导体芯闻· 2026-01-23 17:38
文章核心观点 人工智能工作负载驱动了内存技术的创新,特别是对低功耗、高密度内存的需求日益增长,这推动了以非晶氧化物半导体(如IGZO)为代表的新材料在DRAM、SRAM替代方案及内存计算等领域的应用探索,旨在解决传统内存的微缩挑战、漏电与功耗问题,并实现与先进CMOS工艺的后端集成[1][11] DRAM技术演进与氧化物半导体的应用 - **人工智能数据中心的需求导致DRAM短缺**,尽管有RRAM等新技术探索,DRAM仍是大多数应用的首选[1] - **DRAM微缩面临挑战**,行业希望通过垂直结构提高密度,并采用低漏电晶体管(如非晶氧化物半导体IGZO)来降低大型存储阵列的刷新功耗[1] - **IGZO材料具有优势**,其极低的漏电流和相对容易、低成本的沉积工艺,使其适用于堆叠器件[1] - **集成工艺存在热稳定性挑战**,例如在DRAM所需的高温下,IGZO退火可能导致锌迁移和氧空位,但通过优化电极材料(如无锌IGO)和工艺,器件在550°C以上仍能保持稳定[2] - **多家公司展示3D DRAM集成方案**:长鑫存储通过优化沉积工艺、减少氢含量、使用抗氧化界面层和改进栅极绝缘层,成功制备出导通电流为60.9 μA/μm、亚阈值摆幅为80 mV/dec的双栅晶体管[3];Kioxia展示了一种3D DRAM氧化物通道替换工艺,其原型单元在45nm栅极长度下实现了超过30μA/单元的高导通电流和优于10^13的开关比[5] 作为SRAM替代方案的增益单元存储器 - **氧化物半导体可用于无电容“增益单元”存储器**,这是一种潜在的SRAM替代方案,利用氧化物半导体的低漏电延长数据保持时间,同时利用硅的速度优势[6] - **混合设计实现性能提升**:斯坦福大学、英伟达和台积电的研究人员构建的256×256阵列,与高密度SRAM相比,密度提高了3.6倍,能耗降低了15%[6] - **自对准设计进一步优化性能**:佐治亚理工学院的研究展示了一种完全自对准的3T0C设计,相比于晶体管重叠的单元,保持性能提高了10倍,有效容量提高了一倍,并将能耗-延迟-面积乘积降低了75%至80%[8] - **尝试提升速度**:日本半导体能源实验室使用晶体氧化铟(非非晶)制造器件,实现了5纳秒的读写速度和超过3600秒(1小时)的数据保持时间[8] 面向内存计算的非易失性存储器 - **内存计算旨在解决内存带宽问题**,但许多基于模拟存储器(如RRAM)的设计存在需要模数转换等局限性[9] - **氧化物半导体助力非易失性电容存储**:佐治亚理工学院与台积电合作,将掺钨氧化铟与铁电氧化铪锆结合,在40nm CMOS工艺上构建了存储元件,实现了超过10^9次的非破坏性读取耐久性和优于10^4秒(2.78小时)的保持时间[9] - **氧化物半导体使FeFET存储器后端集成成为可能**:由于硅的热要求,硅沟道FeFET难以后端集成;三星研究人员采用IGZO作为沟道材料,并通过氧气退火稳定氧空位,最终获得了1.6 V的宽存储窗口,且耐久性超过10^12次循环[9]
黄仁勋:SRAM无法取代HBM
半导体芯闻· 2026-01-08 18:36
文章核心观点 - 英伟达执行长黄仁勋认为,尽管存在SRAM、GDDR和开放权重模型等替代方案以降低成本,但在实际大规模AI生产环境中,HBM因其在带宽、密度和应对动态工作负载方面的综合优势,仍是不可或缺的[1][2][3] 关于SRAM与HBM的技术路线讨论 - SRAM速度快且能避免外部内存延迟,对某些工作负载有效,但其容量限制是主要瓶颈,黄仁勋指出能放入SRAM的模型大小比实际需求小约100倍[1][2] - 在实际AI生产负载中,SRAM可能因容量限制难以兼顾带宽与密度,一旦模型溢出SRAM,效率优势就会崩溃,系统需依赖外部内存[1][2] - HBM能够应对AI工作负载的不断变化和规模需求,这是SRAM等替代方案在单一情境下有效,但在大规模生产环境中会与现实发生碰撞的关键原因[1] AI工作负载的多样性与硬件需求 - AI工作负载持续变化,包括混合专家模型、多模态模型、扩散模型等多种架构,每种对硬件造成的压力不同,如内存限制、互连带宽需求、延迟要求等[2] - 硬件压力会随时间动态转移,有时压力在NVLink上,有时在HBM内存上,有时三者同时承受压力[2] - 开放权重模型并不能消除对大容量内存池、高速互连或灵活执行引擎的需求,它仅仅改变了模型的拥有者[2] 对成本与需求的看法 - 尽管存在客户对HBM成本和GPU价格的抱怨,但公司认为两者之间不存在矛盾,因为AI模型尚未趋于稳定或分化成可预测的层级[3] - 黄仁勋指出,若只针对特定工作负载优化,可能导致数据中心10%甚至5%的资源未被充分利用,而这些资源本可用于其他任务[2]
SRAM是什么?和HBM有何不同?
半导体芯闻· 2026-01-04 18:17
文章核心观点 - 英伟达以200亿美元取得Groq的LPU技术授权,凸显了SRAM在AI时代,特别是低延迟即时推论应用中的关键作用,使其从配角跃升为主角[1][6] - AI市场需求正从训练转向即时推论,对低延迟的需求使得高速、低延迟的SRAM成为新的产业焦点,与负责大容量高带宽的HBM形成互补[1][4][6] SRAM与HBM的技术特性与角色 - SRAM是一种高速、低延迟(奈秒等级)的静态随机存取记忆体,特点包括速度极快、功耗低、不需刷新,但面积大、每比特成本高,主要用作晶片内部的高速暂存区以实现即时运算[3] - HBM是一种采用3D堆叠与矽穿孔技术的进阶型DRAM,特点为频宽极高(可达上TB/s)、容量大、功耗较传统DRAM低,但延迟高于SRAM,主要用作AI GPU等的大容量记忆体仓库以高速供给资料[3][4] - 两者角色明确:SRAM负责“快”,HBM负责“多”,共同决定了AI晶片的运算速度与能力边界[4] SRAM成为市场新焦点的原因 - AI发展进入新阶段,市场需求从“训练能力”转向“即时推论能力”,如即时语音助理、金融交易、自驾系统等,这些应用最忌惮高延迟,而低延迟正是SRAM的核心优势[6] - 英伟达斥巨资取得Groq的LPU技术授权,其关键在于LPU性能依赖于极端高速、低延迟的记忆体存取,这正是SRAM不可替代的领域,此举旨在补强英伟达在极致低延迟推论架构设计上的短板[1][6] - Groq的技术价值在于利用大量SRAM结合简化控制逻辑,实现比GPU更可预测、更即时的AI回应,适用于AI Agent、机器人控制等场景,从而提升了SRAM的战略地位[6]
突破“存储墙”,三路并进
36氪· 2025-12-31 11:35
文章核心观点 AI与高性能计算需求的爆发式增长,正遭遇“存储墙”的核心瓶颈,即存储器带宽、延迟和能效的增长速度严重滞后于计算性能的增长,制约了系统整体潜力[1][4] 行业领导者台积电指出,未来竞争将是内存子系统性能、能效与集成创新的综合较量,并提出了以SRAM、MRAM、存内计算(CIM)为核心,结合3D封装与计算-存储融合的全栈技术演进路径[1][11][62] AI算力需求与存储“带宽墙”挑战 - AI模型参数从百万级跃升至万亿级,过去70年间训练计算量增长超过10^18倍,推理计算量同步爆发式增长[2] - 硬件峰值浮点运算性能(HW FLOPS)在过去20年间增长60000倍(平均每2年增长3.0倍),而DRAM带宽仅增长100倍(平均每2年增长1.6倍),互连带宽仅增长30倍(平均每2年增长1.4倍),增长速度严重失衡形成“带宽墙”[4] - 以英伟达H100 GPU为例,其BF16精度峰值算力达989 TFLOPs,但峰值带宽仅3.35 TB/s,在运算强度不足时系统性能受存储限制,计算资源闲置[7] - AI/HPC对存储器提出三大核心要求:大容量(存储模型参数)、高带宽(解决吞吐瓶颈)、低数据传输能耗(实现绿色计算与边缘部署)[7] 存储技术演进的全链条协同路径 - 行业正从传统以计算为中心的架构加速向以存储为中心的架构转型[7] - 未来存储器架构演进围绕“存储-计算协同”展开:从传统片上缓存,到片上缓存+大容量封装内存储器,再到高带宽低能耗封装内存储器,最终实现存算一体与近存计算[7] - 现代系统采用分层存储架构,从寄存器(延迟约1ns)、SRAM缓存(延迟约10ns)到HBM/DRAM主存,再到SSD,进行性能-成本权衡[9] - 技术突破需材料、工艺、架构、封装的全链条协同优化,而非单点突破[11] SRAM:高速缓存层的性能基石与演进 - SRAM凭借低延迟、高带宽、低功耗、高可靠性及兼容先进CMOS工艺的优势,是寄存器、缓存等关键层的首选技术,广泛应用于数据中心CPU、AI加速器、移动SoC等芯片[12] - SRAM工艺已覆盖N28至N2全节点,随着N3/N2等先进工艺普及,其在高性能计算芯片中的用量持续增长[12] - 随着工艺向7nm、5nm、3nm、2nm演进,SRAM面临面积缩放速度放缓、最小工作电压(VMIN)优化困境、以及互连损耗加剧(Cu线宽<20nm时电阻率快速上升)等挑战[16][17] - 台积电通过设计-工艺协同优化(DTCO)及技术创新推动SRAM缩放,例如:90nm引入应变硅,45nm采用高k金属栅,28nm推出FinFET与飞跨位线,7nm应用EUV光刻,2nm采用Nanosheet架构[13] - 设计层面,台积电推出3D堆叠V-Cache技术以优化末级缓存容量、延迟与带宽,应用于AMD Ryzen 7 5800X3D处理器,集成最高96MB共享L3缓存,游戏性能显著提升[17][20] - 通过写辅助电路、读辅助电路、双轨SRAM等技术,将N3工艺SRAM的VMIN降低超过300mV;通过交错三金属层字线、飞跨位线等技术降低互连损耗[20] - 未来SRAM发展聚焦:1)在N2及更先进节点通过Nanosheet与DTCO提升密度与能效;2)与3D封装结合垂直堆叠以匹配AI加速器超高带宽需求;3)与存算一体架构协同,作为DCiM的核心存储单元[20] 存内计算(CIM):突破能效瓶颈的架构革命 - 在典型AI加速器中,超过90%的能耗用于存储与计算单元间的数据搬运,而非实际计算,数据移动是制约能效的核心因素[21] - 存内计算架构打破冯·诺依曼架构,将计算功能嵌入内存阵列,数据在原地或近旁处理,极大节省能耗和延迟[24] - 台积电认为,数字存内计算(DCiM)相比模拟存内计算(ACiM)更具潜力,因其无精度损失、灵活性强、工艺兼容,能随节点演进持续提升性能,特别适用于边缘推理场景[26] - DCiM核心优势:1)灵活性高,可针对不同AI工作负载配置计算位宽;2)计算密度高,从22nm到3nm,其能效(TOPS/W)和计算密度(TOPS/mm²)实现数量级飞跃;3)精度灵活与能效比高,支持INT8/12/16及FP16精度,精度损失<2.0%,INT8能效比相比传统架构提升约4倍[28] MRAM:非易失性嵌入式存储器的突破 - 传统嵌入式闪存(eFlash)在28nm以下工艺微缩困难,磁阻随机存取存储器(MRAM)凭借低待机功耗、高密度、非易失性、速度快、耐久性和工艺友好等优势,成为理想替代方案[33] - MRAM核心价值在于兼顾高速读写与数据长期保存,满足汽车电子、边缘AI等场景对非易失性、高可靠性和极高耐久性的需求[35] - 在汽车电子领域,台积电N16 FinFET eMRAM技术满足严苛要求:100万次循环耐久性、支持焊料回流、150℃下20年数据保持能力,支撑车载MCU的OTA更新功能[39] - 在边缘AI领域,MRAM支持TinyML等紧凑AI架构,仅需2-4MB容量存储模型权重,同时支持安全OTA更新,匹配其对低容量、高能效与高可靠性的需求[39] - MRAM短板包括:单位容量成本高于DRAM与NAND;高温度下数据保持需优化;强磁场环境(如强永磁体N52)下需保持9mm安全距离等抗干扰挑战[43] - 台积电通过多重技术优化MRAM可靠性:1)数据擦洗技术结合ECC纠错,在125℃下控制位错误率;2)优化MTJ结构与布局以抗磁性干扰;3)针对NVM与RAM不同应用场景调整参数,权衡数据保持、密度与速度[43][47][49] - 台积电已将N16 eMRAM技术成功推向市场,特别是在汽车领域,并正在向更先进节点迈进[49] 计算-存储融合与3D先进封装的系统级优化 - 单一存储技术优化已难以满足系统需求,必须通过3D封装、芯粒集成等技术,将存储与计算单元紧密连接,实现存储靠近计算的架构重构[50] - 2.5D/3D先进封装通过硅中介层或硅桥将计算芯粒与高带宽内存(如HBM)封装在一起,创造带宽极高、距离极近的超级系统,以匹配AI加速器的巨大吞吐需求[54] - 台积电先进封装布局包括:CoWoS平台(将逻辑芯片和HBM集成在硅中介层上)和SoIC技术(允许芯片垂直3D堆叠,实现最短最密集互连)[58] - 高密度互连优势:缩短数据路径,降低数据移动能耗与延迟;提升带宽密度,3D堆叠的比特能效相比封装外铜互连提升60倍;模块化设计灵活适配不同场景,如AI内存带宽需求已达20.0TB/s[58] - 未来AI芯片可能通过3D堆叠将计算单元直接放置在高速缓存或存内计算单元之上,形成紧耦合异构集成体,并结合集成电压调节器、光子互连等技术[60] - 这要求芯片设计、存储器专家、封装工程师从架构设计之初就进行内存-计算协同优化,以突破存储墙与能效瓶颈[61] 行业未来图景与竞争关键 - AI计算正推动存储技术进入全维度创新时代,需应对“带宽墙”与“能效瓶颈”双重挑战[62] - 台积电的技术蓝图路径:以SRAM保障高速访问;以MRAM开拓新场景并填补非易失性存储空白;以DCiM实现存算一体突破能效瓶颈;最终以3D封装与芯粒集成实现系统级融合,重构存储与计算连接[62] - 对产业而言,竞争格局深化,领先企业不仅需掌握尖端制程工艺,更需在存储技术、先进封装和系统架构上构建全方位创新能力,技术的协同与融合成为破局关键[62]
突破“存储墙”,三路并进
半导体行业观察· 2025-12-31 09:40
文章核心观点 AI与高性能计算需求的爆发式增长正遭遇“存储墙”瓶颈,即存储带宽和性能的提升速度远落后于计算性能的增长,这严重制约了系统整体能效和算力释放[1][5]。为突破此瓶颈,行业需从单一器件优化转向材料、工艺、架构、封装的全链条协同创新[12]。台积电的技术蓝图指出,未来竞争将是内存子系统性能、能效与集成创新的综合较量,其演进路径围绕“存储-计算协同”展开,具体通过优化SRAM、发展MRAM与存内计算(DCiM)、并利用3D封装等技术实现计算-存储深度融合,以构建下一代硬件平台[1][8][12][50][59]。 AI算力增长与存储“带宽墙”挑战 - AI模型参数规模与计算量呈爆炸式增长,过去70年间机器学习模型的训练计算量增长超过10^18倍[2] - 计算性能与存储器带宽提升速度严重失衡,过去20年间硬件峰值浮点运算性能(HW FLOPS)增长60000倍(平均每2年3.0倍),而DRAM带宽仅增长100倍(平均每2年1.6倍),互连带宽仅增长30倍(平均每2年1.4倍),形成“带宽墙”[5] - 存储带宽成为限制计算吞吐量的主要瓶颈,以英伟达H100 GPU为例,其BF16精度峰值算力达989 TFLOPs,但峰值带宽仅3.35 TB/s,在运算强度不足时系统性能受存储限制[8] - AI与HPC对存储器提出三大核心需求:大容量、高带宽、低数据传输能耗[8] - 行业架构正从以计算为中心加速向以存储为中心转型,存储架构演进路径为:从传统片上缓存,到片上缓存+大容量封装内存储器,再到高带宽低能耗封装内存储器,最终实现存算一体与近存计算[8] 分层存储架构与全链条优化 - 现代计算系统采用分层存储架构以平衡速度、带宽、容量与功耗,从寄存器(延迟约1ns)、SRAM缓存(延迟约10ns)到HBM/DRAM主存,再到SSD等存储设备,性能与成本逐级权衡[10] - 应对挑战需材料、工艺、架构、封装的全链条协同优化,台积电基于层次结构优化各级嵌入式存储器:SRAM提升缓存层密度与能效;MRAM填补嵌入式非易失性存储器(eNVM)缺口;DCiM从架构层面优化能效比;3D封装与芯粒集成则提供系统级解决方案[12] SRAM:性能基石的技术演进与挑战 - SRAM是高速嵌入式存储器主力,具有低延迟、高带宽、低功耗、高可靠性优势,广泛应用于数据中心CPU、AI加速器、移动SoC等,工艺节点覆盖N28至N2[13] - SRAM面积缩放依赖关键工艺与设计突破:90nm引入应变硅;45nm采用高k金属栅;28nm推出FinFET、飞跨位线与双字线;7nm应用EUV光刻与金属耦合;2nm通过Nanosheet架构实现进一步缩放[14] - SRAM密度提升直接推动计算性能,例如L3缓存容量增加可显著提升CPU每周期指令数(IPC)[17] - 先进节点下面临三大挑战:面积缩放速度放缓;最小工作电压(VMIN)优化困难,影响读写稳定性与能效;互连损耗加剧(Cu线宽<20nm时电阻率快速上升),制约速度提升[17] - 设计层面通过3D堆叠V-Cache技术优化末级缓存,AMD Ryzen™ 7 5800X3D处理器集成最高96MB共享L3缓存,游戏性能显著提升[17][20] - 通过写辅助电路、读辅助电路、双轨SRAM等技术,将N3工艺SRAM的VMIN降低超过300mV;通过交错三金属层字线、飞跨位线等技术降低互连损耗[22] - 未来聚焦方向:在N2及更先进节点通过Nanosheet架构与设计-工艺协同优化(DTCO)提升密度与能效;与3D封装结合实现缓存容量跨越式增长;与存算一体架构协同,作为DCiM的核心存储单元[22] 存内计算(CIM)与DCiM的架构革命 - 传统AI加速器中超过90%的能耗可能用于存储与计算单元间的数据搬运,而非实际计算,数据移动成为制约能效的核心因素[23] - 存内计算(CIM)打破冯·诺依曼架构,将计算功能嵌入内存阵列,数据在原地或近旁处理,极大节省能耗和延迟[26] - 台积电认为数字存内计算(DCiM)相比模拟存内计算(ACiM)更具潜力,DCiM无精度损失、灵活性强、工艺兼容,能随节点演进持续提升性能,特别适用于边缘推理场景[28] - DCiM核心优势:灵活性高,可针对不同AI工作负载配置计算位宽;计算密度高,从22nm到3nm,其能效(TOPS/W)和计算密度(TOPS/mm²)实现数量级飞跃;精度灵活与能效比高,支持INT8/12/16及FP16精度,精度损失<2.0%,INT8精度下能效比较传统架构提升约4倍[30] MRAM:非易失性嵌入式存储器的突破 - 传统嵌入式闪存(eFlash)在28nm以下工艺微缩困难,磁阻随机存取存储器(MRAM)凭借低待机功耗、高密度、非易失性、速度快、耐久性和工艺友好等优势,成为eNVM的理想替代方案,适用于汽车电子、边缘AI等新兴场景[35][38] - 在汽车电子领域,台积电N16 FinFET嵌入式MRAM技术满足严苛要求:100万次循环耐久性、支持焊料回流、150℃下20年数据保持能力,支撑软件定义汽车的OTA更新等功能[41] - 在边缘AI领域,MRAM支持TinyML等紧凑AI架构,仅需2-4MB容量存储模型权重,同时支持安全OTA更新,匹配边缘设备对低容量、高能效与可靠性的需求[41] - MRAM存在短板:单位容量成本高于DRAM与NAND;高温度下数据保持能力需优化;强磁场环境(如强永磁体N52)下需保持9mm安全距离,抗干扰能力需特殊设计[42] - 台积电通过技术优化提升MRAM可靠性:采用数据擦洗(Data Scrubbing)技术结合ECC纠错,在125℃下控制位错误率(BER);优化MTJ结构与布局以抗磁性干扰;针对NVM与RAM不同应用场景差异化调整参数[43][46] - 台积电已将N16 eMRAM技术成功推向市场,特别是在汽车领域,并正向更先进节点迈进[50] 计算-存储融合与3D封装的系统级优化 - 单一存储技术优化已难以满足系统需求,必须通过3D封装、芯粒集成等技术实现存储靠近计算的架构重构,需求包括更高带宽密度、更低单位比特能耗、更短延迟、更高互连密度[50] - 2.5D/3D先进封装(如通过硅中介层或硅桥)将计算芯粒与高带宽内存(如HBM)集成,创造带宽极高、距离极近的超级系统,使内存带宽匹配AI加速器的巨大吞吐需求[52] - 高密度互连优势:缩短数据路径,降低移动能耗与延迟;提升带宽密度,3D堆叠的比特能效相比封装外铜互连提升60倍;模块化设计灵活适配不同场景,AI内存带宽需求已达20.0TB/s,3D封装可高效支撑[56] - 未来AI芯片可能通过3D堆叠将计算单元直接放置在高速缓存或存内计算单元之上,形成紧耦合异构集成体,并集成电压调节器、光子互连等技术[58] - 需芯片设计、存储器、封装工程师早期紧密协作,通过内存-计算协同优化,实现能效和性能的阶跃式提升[58] - 台积电具体布局包括:CoWoS先进封装平台,将逻辑芯片和HBM集成在硅中介层上,实现高互连密度和带宽;SoIC 3D堆叠技术,允许芯片垂直堆叠,将数据移动能耗和延迟降至最低[59]
北京君正:公司SRAM主要用于车规、工业和医疗等市场
证券日报网· 2025-12-30 19:12
公司产品与市场定位 - 公司SRAM产品主要应用于车规、工业和医疗市场 [1] - 公司产品可以替换瑞萨、英飞凌的相关产品 [1]
北京君正(300223.SZ):公司的SRAM为独立芯片,目前未提供片上SRAM IP业务
格隆汇· 2025-12-30 16:52
公司业务与产品说明 - 北京君正公司的SRAM产品为独立芯片 [1] - 公司目前未提供片上SRAM IP业务 [1]