存算一体

搜索文档
知存科技 2026 届校招启动:这类半导体人才将成香饽饽
半导体行业观察· 2025-09-17 09:30
公众号记得加星标⭐️,第一时间看推送不会错过。 当生成式AI模型参数突破万亿,传统芯片架构正遭遇前所未有的 "双重墙" 困境 —— 冯・诺依 曼架构中数据在存储与计算单元间的频繁搬运,让 "存储墙" 带来的延迟损耗和 "功耗墙" 引发 的能效危机愈发突出。而存算一体技术的崛起,正以 "数据不动计算动" 的底层逻辑,将 AI 算 力能效提升数十倍,成为后摩尔时代最具颠覆性的技术路径。 作为全球首批实现存算一体芯片量产商用的企业,知存科技全面启动了 2026 届校招"天才博士 计划"。这不仅是一家企业的人才布局,更折射出 AI 芯片行业在技术爆发期的人才争夺战 —— 据中国半导体行业协会等机构数据,到2025年,中国的芯片专业人才缺口预计将扩大至30万人 以上。 从实验室到量产线: 存算一体的 "技术跃迁窗口" 存算一体并非全新概念,但直到最近三年才真正跨过 "量产临界点"。知存科技创始人兼 CEO 王绍迪 受访指出:"经过十余年技术沉淀,存算一体已从前沿科研成果进入规模化量产阶段,而大语言模型 的爆发让其能效优势较传统卷积神经网络放大百倍——这两个趋势叠加,正在开启行业跨越式发展的 窗口期。" 这一判断背后是扎 ...
【金牌纪要库】AI芯片驱动先进逻辑半导体设备订单增长强劲,上半年两大龙头订单同比增长40%,这个技术被视为下一代封装技术核心
财联社· 2025-09-12 23:11
AI芯片与半导体设备 - AI芯片驱动先进逻辑半导体设备订单增长强劲 上半年两大龙头订单同比增长40% [1] - 先进封装技术可实现更高密度互连 被视为下一代封装技术核心 [1] AI计算平台发展 - 英伟达Rubin CPX降低Token生成成本 有望极大刺激AI应用总需求 [1] - 新产品将随AI工作负载整体增长而持续强劲增长 [1] 计算架构变革 - AI终端崛起或打破传统"计算"与"存储"分离架构 [1] - "存算一体"或"近存计算"有望走向台前 带动相应设备/材料需求 [1]
半壁江山都来了!最燃AI芯片盛会最终议程公布,同期超节点研讨会深入解读华为384
傅里叶的猫· 2025-09-12 18:42
峰会概况 - 2025全球AI芯片峰会将于9月17日在上海浦东喜来登由由大酒店举行 主题为"AI大基建 智芯新世界" 聚焦AI新基建热潮及大模型下半场中国芯片破局[2] - 该峰会自2018年首次举办以来已邀请180+位产学研专家分享前沿研究 是国内AI芯片领域最具影响力的产业峰会之一[2] - 峰会结构包括主论坛 专题论坛 技术研讨会及展览区 展览区有超摩科技 奎芯科技等10+展商参展 AWE为战略合作机构[2][3] 主论坛议程 - 中山大学王中风教授发表《塑造智能未来:AI芯片的架构创新与范式转移》探讨三大解决方案突破瓶颈[7] - 云天励飞CEO陈宁分享《芯智AI 推理未来》介绍AI推理趋势及公司芯片布局[7] - 华为昇腾芯片总经理王晓雷解析《Open CANN:Why What & How》涉及CANN开源及计算系统架构[8] - 行云集成电路CEO季宇探讨《谁困住了AI产业》提出将大模型基础设施从大型机化转为白盒组装机化[9] - 奎芯科技副总裁唐睿演讲《Chiplet AI算力的基石》讨论Chiplet提升设计灵活性及内存带宽[9] - 清华大学刘学分享《智算超节点通信关键技术》介绍Scale-up通信互联解决方案[9] - 新华三总监刘善高解析《超节点集群的思考与实践》分享超节点技术路线及发展路标[9] - 高端对话由智一科技张国仁主持 与和利资本 普华资本等投资机构探讨大模型下半场中国AI芯片破局[10] 专题论坛:大模型AI芯片 - 上海交通大学冷静文教授报告《数据流体系架构研究进展》分析GPU架构优劣及数据流进展[18] - 曦望Sunrise副总裁陈博宇分享《大模型下半场:算力基础设施破局与产业协同》强调性价比为生死线[18] - 爱芯元智副总裁刘建伟探讨《以高智价比AI芯片重构"云-边-端"算力格局》介绍自研AI原生处理器[19] - 墨芯人工智能副总裁尚勇解析《AI普惠的"加速卡"》讨论双稀疏化算法与软硬协同设计[19] - 江原科技CTO王永栋分享《国产大算力AI芯片的突围与超越》探讨打破技术封锁策略[20] - 迈特芯工程师李凯介绍《面向个人智能体的端侧大模型芯片》基于国产工艺和3D-DRAM技术[20] - 北京智源研究院经理门春雷分享《面向多元AI芯片的统一编译器FlagTree》支持跨平台运行[20] - 北极雄芯副总裁徐涛探讨《前沿架构支持大模型应用的实践及展望》介绍Chiplet定制化方案[21] - Alphawave销售经理邓泽群解析《高速连接解决方案加速AI HPC Networking行业应用》分享IP及Chiplet方案[21] 专题论坛:AI芯片架构创新 - 清华大学胡杨副教授报告《晶圆级芯片计算架构与集成架构探究》探讨单片集成方式及设计约束[22] - 上海交通大学刘方鑫助理教授分享《面向人工智能多元场景的软硬件协同加速研究》涉及动态压缩框架及拟态计算[23] - 奕斯伟计算副总经理居晓波解析《RISC-V AI芯片的创新和应用》介绍64位RISC-V CPU及自研NPU[24] - Andes晶心科技经理林育扬探讨《人工智能与应用处理器中的创新应用》分析DeepSeekAI模型优势[24] - 酷芯微电子CTO沈泊分享《AI芯视界 智能眼镜芯片技术与创新》解决AI计算及功耗挑战[25] - 芯来科技助理副总裁马越解析《RISC-V深度耦合NPU 加速AI时代芯应用》推出矢量处理器及NPU IP[25] - 芯枥石CEO汤远峰探讨《端侧AI芯片的架构演进和挑战》覆盖政务医疗等行业方案[26] 技术研讨会:存算一体AI芯片 - 北京大学孙广宇教授报告《基于DRAM近存计算架构的大模型推理优化》分析DRAM近存计算芯片特点及挑战[34] - 中科院计算所研究员王颖探讨《异质异构存算一体芯片与系统软件栈》结合2 5D/3D集成技术优化AI应用[35] - 复旦大学陈迟晓副研究员解析《存算一体2 5D/3D/3 5D集成芯片》讨论先进集成技术可扩展性及挑战[35] - 微纳核芯副总裁王佳鑫分享《三维集成存算一体AI芯片》介绍18篇SCI论文研究成果[36] - 寒序科技CEO朱欣岳探讨《超高带宽磁性AI推理芯片的材料 器件 设计与算法联合优化》聚焦神经形态计算[36] 技术研讨会:超节点与智算集群 - 阿里云孔阳博士报告《AI应用发展与超节点趋势》负责数据中心互连方案设计[37] - 华为云专家侯圣峦分享《华为云超节点实践分享》解析CloudMatrix384超节点全对等互联架构[38] - 壁仞科技总监董朝锋探讨《OCS全光互连光交换超节点》介绍光跃LightSphere X获SAIL奖技术[38] - 之江实验室副主任高翔分享《智算集群深度可观测系统》实现故障控制及高效运维[39] - 矩量无限副总裁杨光解析《基于容器技术的异构芯片协同调度尝试》分享容器技术实践[40] - 中国电信经理孙梦宇探讨《国产算力优化的思考与实践》构建自动化评测及调优体系[40] - 基流科技VP陈维分享《Mercury-X 全栈自主的下一代AI智算系统》介绍全栈自主架构及高可用解决方案[41]
全球首个RISC-V存算一体标准研制工作启动
36氪· 2025-09-11 18:28
在人工智能大模型飞速发展、算力需求呈指数级增长的当下,中国芯片产业正面临三个核心痛点。芯片 先进工艺技术封锁叠加传统架构的固有局限,让算力密度、软硬件生态、数据带宽成为制约产业升级 的"三座大山"。 36氪获悉,微纳核芯在RISC-V存算一体产业论坛暨应用组启动大会上介绍的3D-CIM(三维存算一体) 技术,与开源灵活的RISC-V架构深度融合,正成为突破困境、推动国产芯片迭代的核心路径。 1.国产芯片产业的"三座大山" 1)先进工艺缺失下,算力密度瓶颈 当前国产3nm/5nm先进工艺仍处于研发阶段,短期内难以量产,传统工艺的芯片若沿用冯・诺依曼架 构,算力密度较低,远无法满足千亿参数大模型的运行需求。 传统冯・诺依曼架构下,计算与存储单元分离,数据需通过总线频繁搬运,形成"存储墙"瓶颈。当大模 型参数规模达千亿级时,数据搬运量呈指数级增长,带宽不足会导致推理效率骤降。 2.三维存算一体技术可破局 作为对上述芯片行业痛点的回应,9月9日,杭州微纳核芯首席科学家叶乐教授在RISC-V存算一体产业 论坛暨应用组启动大会上,作了关于《三维存算一体3D-CIM:赋能RISC-V AI生态》的报告。 他表示,三维存算一 ...
科技投资关“建”词 | “科技+”的力量之硬件篇
中国证券报· 2025-09-04 07:42
核心观点 - 科技板块在A股结构化行情中表现亮眼 硬件体系是数字时代的基础能源 算力发展是科技投资的核心主线之一 [1][3][6] 算力基建 - 算力是数字时代的基础能源 被类比为石油 是科技浪潮的基石 [3] - 存算一体技术将计算功能嵌入存储单元 实现数据就地处理 解决数据搬运产生的功耗与延迟问题 可降低芯片性能拖累 尤其适用于AI和自动驾驶等高算力场景 [9] - 存算一体通过存储即计算的物理重构化解存储墙困境 成为突破算力天花板的关键路径 是支撑未来算力经济性的关键基建 [9] 半导体产业链 - 中国在高端芯片 先进制程设备及关键材料领域仍依赖进口 但技术突破 算力需求及政策支持正加速产业链格局重塑进程 [6] - 重塑产业链格局是突破半导体领域卡脖子技术的关键路径 将重塑全球半导体产业链格局 兼具长期确定性和高成长性 [6] 先进封装技术 - 先进封装以光电共封装为核心 将光传输器件与芯片集成在同一封装内 缩短信号传输距离至毫米级 传统为厘米级 [13] - 该技术具有低功耗 低延迟 高宽带密度和小体积优势 提升数据传输效率并降低损耗 [13] - 先进封装推动光模块从传输配角向立体集成演进 市场规模有望大幅增长 [13] 投资产品聚焦 - 建信基金推出科技投资系列产品 包括中证新材料主题ETF基金代码159763 电子行业基金A类017746 C类017747 信息产业股票基金A类001070 C类014863 [7][11][14][15]
“科技+”的力量之硬件篇
中国证券报· 2025-09-04 07:37
科技投资核心主线 - 算力是数字时代的基础能源 是科技浪潮的底层支撑[3] - 中国在高端芯片 先进制程设备及关键材料领域仍依赖进口 但技术突破 算力需求及政策支持正加速产业链格局重塑进程[6] - 重塑半导体产业链格局是突破卡脖子技术的关键路径 兼具长期确定性和高成长性[6] 关键技术突破方向 - 存算一体技术将计算功能嵌入存储单元 实现数据就地处理 化解存储墙困境[9] - 该技术通过存储即计算的物理重构 减少数据搬运产生的功耗与延迟 成为突破算力天花板的关键路径[9] - 先进封装以光电共封装为核心 将光传输器件与芯片集成在同一封装内 缩短信号传输距离[14] - 光电共封装将电信号传输距离从厘米级缩短至毫米级 具有低功耗 低延迟 高宽带密度优势[14] 市场发展前景 - 存算一体技术是支撑未来算力经济性的关键基建 具备长期增长潜力[9] - 先进封装技术推动光模块从传输配角向立体集成演进 市场规模有望实现大幅增长[14] - 光电共封装技术成为光模块升级的关键技术支撑[14] 产品布局 - 建信基金推出中证新材料主题ETF 基金代码159763[7] - 建信电子行业基金提供A类017746和C类017747两种份额[11][12] - 建信信息产业股票基金提供A类001070和C类014863两种份额[16]
最新消息:阿里巴巴三步走战略替代英伟达的,追加寒武纪GPU至15万片
是说芯语· 2025-08-30 15:46
新一代AI芯片开发 - 公司正在开发新一代AI芯片 聚焦多功能推理场景 核心目标是填补英伟达H20退出后的市场空白[1] - 芯片采用国产14nm或更先进制程 由长江存储等本土代工厂支持 通过异构计算架构集成高密度计算单元和大容量内存[1] - 预计LPDDR5X带宽超1TB/s 单卡算力目标达到300-400TOPS(INT8) 与H20约300TOPS基本持平[1] 技术优势与兼容性 - 芯片核心优势在于全场景兼容性 支持FP8/FP16混合精度计算 通过动态指令翻译层实现与CUDA生态无缝对接[3] - 工程师可直接复用现有代码 迁移成本降低70%以上[3] - 阿里云已在通义千问大模型推理环节部署寒武纪思元370芯片 通过MagicMind工具链实现模型转换效率提升3倍[3] 供应链与产能布局 - 公司紧急追加寒武纪思元370订单至15万片 该芯片基于7nm工艺采用Chiplet技术 集成390亿晶体管[5] - 实测算力达300TOPS(INT8) 在ResNet-50等典型模型性能与H20持平 能效比提升40%[5] - 采用双代工厂备份策略:中芯国际14nm产线良率稳定在95%以上 月产能达5万片[6] - 与华虹半导体合作开发7nm工艺 预计2026年量产 目标算力突破500TOPS 能效比提升30%[8] 存储技术突破 - 与长江存储合作研发基于国产制程的AI芯片 重点突破存储瓶颈[5] - 长江存储294层3D NAND技术实现20GB/mm²存储密度和7000MB/s读写速度 较上一代提升40%[5] - 使AI芯片本地存储容量扩大至128GB 减少对外部存储依赖[5] 市场应用进展 - 截至2025年Q2 思元370已覆盖阿里云60%的推理需求[5] - 通过PCIe 5.0接口实现多卡互联 支撑通义千问用户增长[5] 技术发展路线图 - 短期2025-2026:聚焦7nm/14nm工艺推理芯片 通过兼容生态快速抢占市场份额[10] - 中期2027-2028:推出4nm工艺训练芯片 支持千卡级集群互联 目标算力达1EFLOPS 对标英伟达H100[10] - 长期2030后:探索光子计算和存算一体等颠覆性技术[10] - 阿里云已发布全球首款商用光子AI芯片 速度较GPU提升1000倍 功耗降低90%[10] 战略意义与行业影响 - 公司国产算力突围本质是技术攻坚与生态重构双重战役 通过兼容-替代-超越三步走策略打破英伟达垄断格局[11] - 与寒武纪和长江存储等产业链伙伴深度协同 对RISC-V和光子计算等前沿技术布局 为中国AI芯片自主可控提供可行路径[11] - 未来两年是关键窗口期 若2026年前实现4nm训练芯片量产 有望在全球算力竞争中占据更主动地位[11]
HBM,挑战加倍
36氪· 2025-08-19 18:59
HBM技术概述 - 高带宽内存(HBM)采用独特的3D堆叠结构,通过先进封装技术将多个DRAM芯片垂直堆叠(通常为4层、8层或12层),带宽远高于GDDR等传统内存解决方案[1] - HBM具备高带宽和低延迟特性,已成为AI大模型训练与推理的关键组件,在AI芯片中扮演"L4缓存"角色,显著提升数据读写效率并缓解内存带宽瓶颈[2] HBM技术演进 - HBM1于2014年发布,带宽128GB/s,存储密度1GB内存[2] - HBM2于2016年由三星率先发布,带宽提升至256GB/s,堆叠层数发展到4层和8层[2] - HBM2E于2019年由三星率先发布,SK海力士产品带宽达460GB/s[2] - HBM3于2022年由SK海力士发布,带宽819GB/s,堆叠层数达12层,容量提升到24GB[2] - HBM3E于2024年由SK海力士量产,带宽1229GB/s,容量达24GB或36GB[2] - 所有HBM代际均保持1024位接口宽度[2] SK海力士市场表现 - SK海力士在HBM领域市场份额显著领先,与三星的份额差距已扩大至两倍以上[3] - 2024年第二季度,SK海力士以约21.8万亿韩元的DRAM及NAND销售额首次超越三星电子(约21.2万亿韩元),登顶全球存储销售额榜首[3] - SK海力士是英伟达的主要独家供应商,其HBM3E产品2025年的8层及12层产能已全部售罄[3] - 截至2024年第一季度,SK海力士在HBM市场份额达53%,三星电子占比38%,美光科技占10%[17] 三星电子市场状况 - 三星电子因向英伟达交付延迟错失良机,在HBM3E领域大幅落后于SK海力士[4] - 三星HBM市场份额从2023年第二季度的41%暴跌至2024年第二季度的17%[4] - 三星计划2025年将HBM供应量提升至2024年的两倍[17] HBM替代方案开发 - 行业厂商加速技术创新,探索HBM替代方案[5] - 三星电子重启Z-NAND内存技术,目标将性能提升至传统NAND闪存的15倍,功耗降低多达80%[6] - 新一代Z-NAND将搭载GPU发起的直接存储访问(GIDS)技术,允许GPU直接从存储器获取数据[6] - NEO Semiconductor推出X-HBM架构,基于3D X-DRAM技术,带宽达到现有内存技术的16倍,密度为现有技术的10倍[10] - X-HBM具备32K位总线和每芯片512Gbit容量,可绕过传统HBM技术需耗时十年才能突破的性能瓶颈[10] - Saimemory研发全新堆叠式DRAM架构,目标容量较传统DRAM提升至少一倍,功耗较HBM降低40%-50%[11] - 闪迪与SK海力士联合制定高带宽闪存(HBF)规范,计划2026年下半年推出首批样品[12] - HBF通过用NAND闪存替代部分内存堆栈,在成本与带宽接近DRAM型HBM基础上,将容量提升至后者的8-16倍[13] 架构创新 - 存算一体架构(PIM/CIM)在存储器本体或邻近位置集成计算功能,规避传统架构中"计算-存储-数据搬运"的瓶颈[15] - 该架构能缩短系统响应时间,使能效比实现数量级提升,有望将对高带宽内存的依赖度降低一个数量级[15] - 华为发布UCM推理加速套件,融合多种缓存加速算法工具,可减少对HBM的依赖同时提升推理性能[16] 市场现状与趋势 - 2025年初HBM3芯片现货价格较2024年初暴涨300%[17] - 单台AI服务器的DRAM用量达到传统服务器的8倍[17] - 美光科技目标2025年将HBM市占率提升至20%以上[17] - 未来AI内存市场将呈现异构多元的层级体系,各类技术针对特定工作负载实现精准优化[18] - HBM聚焦训练场景,PIM内存服务于高能效推理,专用片上内存架构适配超低延迟应用[18] - 新型堆叠DRAM与光子互连等技术也将在系统中占据一席之地[18]
一文看懂“存算一体”
虎嗅· 2025-08-15 14:52
文章核心观点 - 存算一体(Compute In Memory,CIM)通过将存储和计算融合,旨在解决传统冯·诺依曼架构的"存储墙"和"功耗墙"问题,提升计算效率和能效比 [1][12][21] - 该技术尤其适合AI等高算力需求场景,市场规模预计从2023年到2029年以154.7%的年复合增长率增长,达到306.3亿美元 [30][46][79] 技术背景与问题 - 传统冯·诺依曼架构采用存算分离模式,存储与计算独立导致数据传输瓶颈 [2][10] - AI时代数据量爆炸式增长,暴露"存储墙"(数据传输速度远低于计算速度)和"功耗墙"(数据传输能耗占比高达63.7%)问题 [11][12][17] - HBM技术通过3D封装缩短存算距离,但未根本解决分离问题 [18][20] 技术原理与优势 - 存算一体模仿人脑结构,在存储单元内直接计算,减少数据搬运次数,提升效率并降低功耗 [21][22][48] - 适用于AI矩阵乘法和乘累加运算,能效比显著提升(如PRIME方案功耗降低20倍、速度提升50倍) [28][47][48] 技术分类 - 近存计算(PNM):通过封装集成存算单元(如HBM),但仍属存算分离,适用于AI、边缘计算等场景 [36][37][39] - 存内处理(PIM):在存储晶粒中集成算力(如HBM-PIM),适用于语音识别、基因匹配等 [40][42] - 存内计算(CIM):彻底融合存算单元,消除界限,是狭义存算一体,主要服务AI计算 [43][44][46] 存储介质与实现方式 - 易失性存储器(SRAM、DRAM)和非易失性存储器(Flash、RRAM、MRAM等)均可用于存内计算 [51][53][54] - SRAM适合大算力场景(高能效比),DRAM成本低但延迟大,Flash适合小算力场景 [54] - 新型存储器如RRAM(忆阻器)研究热度高,但面临工艺良率和可靠性挑战 [55][57][58] - 模拟存内计算能效高但误差大,适用于低精度场景(如可穿戴设备);数字存内计算精度高但功耗大,适用于云端AI [60][61] 应用场景 - AI相关领域:自然语言处理、图神经网络、智能决策等,对算力效率和能耗要求高 [62][65] - AIoT智能物联网:碎片化市场注重成本、功耗和开发难度,存算一体具备优势 [63][64] - 云端AI计算:替代GPU部分场景,存算一体ASIC芯片在能效和固定任务处理上潜力巨大 [65][66][67] - 延伸应用:感存算一体、类脑计算等新兴领域 [68] 发展历程与现状 - 概念最早于1969年提出,但受限于技术未落地 [23][24] - 2010年后关键技术突破(如忆阻器实现布尔逻辑),2016年PRIME方案验证能效提升 [26][27][28] - 2017年多家巨头推出原型系统,引发学术界和产业界热潮 [29] - 2023年清华大学研发出全球首颗全系统集成忆阻器存算一体芯片 [32] - 当前进入高速发展期,传统芯片巨头和创业企业(如苹芯科技、Mythic等)积极布局 [30][31][33] 市场规模与增长 - 预计2029年全球存算一体技术市场规模达到306.3亿美元,年复合增长率154.7% [79] - 技术正从理论研究走向产业落地,未来几年将涌现更多创新和企业 [33][80]