存算一体

搜索文档
对话「后摩智能」吴强:从科学家到创业者的惊险一跃
36氪· 2025-08-06 08:02
行业趋势 - AI算力呈现云端和端边侧两极发展趋势 云端算力持续扩展 端边侧应用火热 [1] - 未来生成式AI推理计算90%在端侧和边侧进行 仅10%复杂任务需云端处理 [1] - 端边侧市场正孕育"下一个英伟达"机会 可能比云端市场更大且容纳更多玩家 [2] 技术架构创新 - 存算一体技术突破冯诺依曼架构的"内存墙"和"功耗墙"问题 直接在存储单元进行矩阵乘加操作消除数据搬运流程 [2] - 存算一体对先进制程依赖更弱 因数据搬运次数减少 [18] - 行业处于存算一体百花齐放阶段 介质包括Nor-flash/SRAM/DRAM/RRAM 后摩聚焦SRAM和DRAM的高精度大算力存算 [13] 产品性能表现 - 后摩漫界M50芯片实现160 TOPS@INT8和100 TFLOPS@bFP16物理算力 搭配48GB内存与153.6GB/s带宽 典型功耗仅10W [6] - 支持7B到70B参数本地大模型运行 适配X86/ARM等主流处理器架构 [6][7] - 采用自研"天璇架构"IPU和"后摩大道"编译器工具链 支持主流深度学习框架 [6] 商业化进展 - 已获得联想AI PC 讯飞听见智能语音设备 中国移动5G+AI等标杆意向客户 [7][10] - 重点布局消费终端/智能办公/智能工业/机器人领域 端侧市场具有成本敏感和功耗敏感特性 [10][11] - 端边侧芯片需满足小型化 高散热要求 且不能是大尺寸卡型设计 [11] 公司战略转型 - 从智能驾驶芯片转向通用端边大模型AI芯片 因智驾赛道竞争激烈且算力需求与市场不匹配 [8] - 2024年初推出M30芯片试水大模型计算 2025年发布M50芯片完成转型 [9][3] - 存算一体技术与大模型计算天然契合 既需要大算力又需要大带宽 [9] 技术落地挑战 - 存算一体产品化需解决电路设计 量产工程问题 AI处理器架构三大卡点 [14] - 需开发专用EDA工具解决可测性和良率问题 并克服高计算密度带来的电压降等工程难题 [14] - 软件编译器需对客户无感 支持PyTorch/TensorFlow等主流框架 [17] 市场竞争格局 - NPU与SOC/CPU厂商存在能力壁垒 独立NPU在AI计算需求无限场景下将持续发展 [19][20] - 存算一体获国家政策支持 参与发改委/工信部闭门座谈 投资机构关注度显著提升 [12]
对话「后摩智能」吴强:从科学家到创业者的惊险一跃
36氪· 2025-08-05 21:49
AI算力发展趋势 - AI算力呈现两极发展趋势:云端算力持续扩展与端边侧应用火热[4] - 未来生成式AI推理计算90%在端边侧进行,仅10%复杂任务需云端处理[4] - 端边侧市场潜力巨大,可能孕育"下一个英伟达",市场规模或超云端[4] 后摩智能战略与技术 - 公司以存算一体技术切入端边大模型芯片市场,定位"最后一公里"解决方案[5] - 发布存算一体端侧芯片"后摩漫界M50",实现160 TOPS@INT8算力,典型功耗仅10W[8] - 采用自研"天璇架构"IPU和"后摩大道"编译器工具链,支持主流深度学习框架[8] 存算一体技术优势 - 存算一体技术有效解决冯诺依曼架构的"内存墙"和"功耗墙"问题[6] - 技术路线百花齐放,行业处于跑马圈地阶段,公司聚焦SRAM和DRAM存算[18] - 存算一体对先进制程依赖更弱,数据搬运效率更高[23] 商业化进展 - 已获得联想AI PC、讯飞听见智能语音设备、中国移动5G+AI等意向客户[10] - 重点布局消费终端、智能办公、智能工业及机器人领域[14][15] - 端边侧市场特点为成本敏感、功耗敏感、体积小、散热要求高[16] 行业转型与机遇 - 公司从智能驾驶芯片转型通用端边大模型芯片,抓住大模型风口[11][13] - 存算一体技术从冷门到主流,国家和投资机构关注度显著提升[17] - 端边侧AI芯片市场分散且极致,需要适配多元化需求[10] 产品性能与创新 - M50芯片支持7B到70B参数本地大模型运行,内存带宽达153.6GB/s[8] - 采用原方案+AI模式,适配X86、ARM等主流处理器架构[10] - 电路设计、量产工程、AI处理器架构是存算一体产品化三大挑战[19][20]
商道创投网·会员动态|燕芯微电子·完成近亿元天使轮融资
搜狐财经· 2025-08-04 21:19
融资概况 - 燕芯微电子完成近亿元天使轮融资 由领航新界和燕缘创投联合领投 考拉基金、芯阳基金、华宇科创投、佰维存储等机构共同参与 [2] 公司背景 - 公司2024年成立于上海 脱胎于北京大学集成电路学院先进存储与智能计算实验室 [3] - 以ReRAM为技术底座 构建"器件-阵列-芯片"全链路自主知识产权体系 [3] - 专注高密度存储及存算一体AI芯片研发 [3] - 核心团队汇聚北大工艺、设计、IP及市场等多学科顶尖人才 [3] 资金用途 - 资金将用于持续加码ReRAM器件与工艺研发 加速高密度阵列良率提升 [4] - 扩充存算一体AI芯片研发团队 推动首批客户验证 [4] - 搭建开放生态实验室 与上下游伙伴共建国产新型存储标准 [4] 投资逻辑 - 投资方看中公司在ReRAM赛道的原创技术壁垒 器件一致性和阵列集成度已达到国际第一梯队水平 [5] - 北大系团队在工艺、设计、商业化上的复合能力 使公司具备快速迭代与规模落地的双重潜力 [5] - 公司有望填补国内新型存储产业化空白 [5] 行业背景 - 融资恰逢国家"创投十七条"与上海浦东引领区新政叠加落地 [6] - 政府资金、产业资本、高校成果三方共振 [6] - ReRAM商业化仍处早期阶段 需持续投入方能共享万亿级存储与算力融合市场红利 [6]
AI算力集群迈进“万卡”时代 超节点为什么火了?
第一财经· 2025-07-30 18:24
超节点技术成为AI算力集群核心解决方案 - 超节点技术通过整合算力芯片资源构建低延迟高带宽算力实体 显著提升算力利用效率 支撑千亿至万亿参数模型训练[1] - 技术能避免芯片空闲 在单颗芯片制程受限时仍可提升集群性能 国内厂商已将其作为明显发展趋势[1][4] - 华为展出昇腾384超节点实现384个NPU大带宽低时延互连 上海仪电联合曦智科技等发布光跃LightSphere X超节点 新华三推出H3C UniPoD S80000超节点[1] 超节点技术兴起的驱动因素 - 大模型参数量迈向万亿级 算力集群从千卡扩展到万卡/十万卡规模 需解决大规模芯片协同问题[2] - 传统AI服务器横向拓展存在算力性能损失 超节点能保证单个节点内性能最优 解决"1+1<2"的算力损耗问题[3] - 光互连技术成为主流方向 光互连光交换可实现纳秒级切换 提供高带宽低延迟通信 曦智科技光交换芯片与壁仞科技GPU液冷模组已投入应用[4] 超节点技术的实施路径与优势 - 采用scale out横向拓展与scale up纵向拓展双路线 纵向拓展可在单节点内集成多GPU(如64卡/节点)实现一致通讯带宽[3] - 万卡集群需具备多重容错能力 包括秒级容错和分钟级故障恢复 同时需要调度能力实现并行计算分布[2] - 国内通过超节点方案以量补质 弥补国产AI芯片制程差距 光芯片可不依赖高制程[5] 国产AI芯片的差异化竞争策略 - 外购芯片市场份额从去年63%降至今年预计49% 国产芯片占比提升[6] - 墨芯人工智能聚焦AI推理场景 采用稀疏计算技术 12nm制程即可满足需求 针对边缘计算优化功耗[6][7] - 云天励飞聚焦边缘计算与云端大模型推理 后摩智能定位端边场景 存算一体技术实现160TOPS算力 避开与巨头直接竞争[8] 技术路线与生态建设现状 - 英伟达采用封闭生态 国内厂商推进开放技术体系 各厂商超节点路线存在差异 光通信技术全球领先无明显代差[5] - 新华三超节点基于以太协议和PCIe协议 适用多种算力芯片 华为通过总线技术实现NPU互连[4] - 万亿参数模型训练需超1万张GPU 每个超节点包含几十张GPU 需配置冗余容错机制[2]
最高能效比!他又死磕“存算一体”2年,拿出全新端边大模型AI芯片
量子位· 2025-07-28 14:42
核心观点 - 后摩智能发布业界能效比最高的存算一体端边大模型AI芯片后摩漫界®M50,采用第二代存算一体技术,实现160TOPS@INT8算力、100TFLOPS@bFP16浮点算力、153.6GB/s带宽及48GB内存,典型功耗仅10W [3][4][7][9] - 公司通过全栈自研(存算IP、IPU架构、编译器工具链)实现软硬件深度协同优化,解决传统冯·诺依曼架构的"功耗墙"和"存储墙"瓶颈 [11][12][18][24][26] - 存算一体技术成为差异化竞争关键,完美契合大模型时代对算力密集和带宽密集的需求,推动端边智能生态发展 [37][38][40][41] 技术突破 - **第二代SRAM-CIM技术**:彻底改造SRAM阵列结构实现真正存内计算,支持双端口加载与计算并行 [12][14][15] - **天璇IPU架构**:实现比特级弹性加速(最高160%加速效果)及直接浮点运算(FP16模型无需量化) [20][21][22] - **后摩大道®编译器**:支持算子自动拆分优化,降低开发门槛 [24] - **量产方案**:自主开发MBIST/CBIST测试技术解决存算芯片量产难题 [17] 产品矩阵 - **终端侧**:力擎LQ50 M.2卡(单卡7B/8B模型推理>25 tokens/s)及LQ50 Duo(双M50芯片320TOPS)支持被动散热 [29][31][32] - **边缘侧**:力谋®LM5050/LM5070加速卡(最高640TOPS)及BX50计算盒(支持32路视频分析+本地大模型) [33][35][36] 行业战略 - 差异化路径选择存算一体技术,避开与英伟达等巨头的直接竞争 [37][38][39] - 聚焦端边大模型AI计算,预计未来90%数据处理在端边完成 [41] - 已获中国移动、北京人工智能基金等产业资本支持 [41] - 下一代DRAM-PIM技术研发中,目标1TB/s带宽与3倍能效提升 [46][47]
Jinqiu Spotlight | 锦秋基金被投光本位研发全球首颗存算一体光芯片
锦秋集· 2025-07-22 23:04
公司背景与融资情况 - 光本位科技由两位年轻创始人熊胤江和程唐盛于2022年创立,分别具备大模型算法工程化和相变材料光计算研发背景[4] - 2024年12月完成锦秋基金领投的战略轮融资,老股东慕石资本、小苗朗程、中赢创投超额跟投[2] - 2025年6月再获敦鸿资产领投,浦东科技天使母基金、苏州未来天使产业基金等国资跟投,中赢创投继续加注[19] - 2024年累计完成三轮融资,包括3月天使+轮和12月锦秋基金领投轮[20] 技术突破与产品进展 - 实现全球首颗128*128矩阵规模光计算芯片流片,集成16000+完全可调节点,突破商用标准[4][12] - 采用硅光+相变材料(PCM)异质集成技术,单元尺寸缩小至传统方案1/10-1/20,算力密度提升10-20倍[13][14] - 通过相变材料实现存算一体,计算单元功耗接近0,相比电芯片算力提升潜力超1000倍[8][14][15] - 2025年计划完成128*128芯片与电芯片合封测试,推出第一代光电融合计算卡[19] 市场需求与商业化路径 - 瞄准云侧两类客户:互联网大厂(追求能效比/算力密度)和智算中心(注重经济效益)[16] - 光电融合计算卡支持PCIe接口即插即用,适配大模型分拆经济规模(128*128矩阵)[12][16] - 规划端侧场景验证,车规级应用需应对极端环境稳定性要求[17] - 已与一线互联网大厂、GPU厂商、高校等建立合作,同步推进256*256矩阵芯片研发[19] 行业背景与发展机遇 - 全球数据中心2024年耗电415太瓦时(占全球1.5%),2030年预计增至945太瓦时[7] - 电芯片3nm工艺接近物理极限,光计算被视为突破摩尔定律的关键路径[7][8] - 2017年牛津/MIT研究引发关注,但产业链成熟度延迟商业化至2022年[8][9] - 公司抓住AI算力需求爆发窗口,2023年完成64x64矩阵流片,2024年突破128x128规模[10][12]
两位95后创立光计算芯片公司,研发全球首颗存算一体光芯片
36氪· 2025-07-22 10:28
公司概况 - 光本位由两位未满30岁的联合创始人熊胤江和程唐盛于2022年在上海创立,分别关掉美国公司和暂停牛津大学读博回国创业 [1] - 熊胤江为联合创始人&董事长,负责运营与商业化,拥有芝加哥大学硕士学历及大模型算法与AI agent工程化经验 [1] - 程唐盛为联合创始人&CEO,负责研发攻关及工程化落地,曾师从全球"相变材料光计算"领域权威Harish Bhaskaran院士 [1] - 公司成立三年即完成全球首颗商用标准的光计算芯片流片,实现128*128矩阵规模光芯片集成,成为全球唯一存算一体光计算芯片公司 [1] 技术突破 - 采用硅光+相变材料(PCM)异质集成技术路线,独创Crossbar光子矩阵计算结构,解决"尺度微缩"与"算力能耗平衡"两大核心问题 [7][9] - 相变材料将计算单元尺寸缩小至传统方案的1/10-1/20,矩阵规模提升10-20倍,实现接近0功耗的非易失性存储 [9] - 完成存算一体架构创新,实现16000+节点且每个节点完全可调,适配任意模型参数变化,具备可编程性 [7] - 2023年完成64x64矩阵流片,2024年6月突破128x128矩阵规模,计划2026年推出256x256矩阵第二代产品 [5][13] 行业背景 - 光计算芯片相比电芯片具有1000倍以上算力提升潜力,且能耗更低、宽带更大 [3] - 2024年全球数据中心耗电达415太瓦时(占全球1.5%),预计2030年将翻倍至945太瓦时,超过日本总用电量 [2] - 电芯片3纳米工艺已接近0.3纳米物理极限,仅能通过先进封装勉强延续摩尔定律 [2] - 2017年牛津大学和MIT的研究引发全球对光计算的关注,国内外出现多家相关创业公司 [3] 商业化进展 - 产品定位为光电融合计算卡,采用PCIe等通用接口实现即插即用,兼容上层应用生态 [10] - 聚焦两类云侧客户:互联网大厂(追求能效比和算力密度)和政府智算中心(注重经济效益) [10] - 已与一线互联网大厂、GPU厂商、智算中心及高校建立合作,开展应用验证 [13] - 2024年完成三轮融资,投资方包括敦鸿资产、浦东科技天使母基金等机构,老股东中赢创投多次加注 [13] 产业链布局 - 早期即与Fab厂商合作研发先进封装工艺,推动技术迭代 [13] - 计划2024年完成128x128光芯片与电芯片合封测试,形成第一代光电融合计算卡 [13] - 与卫星厂商、通信运营商、光模块厂商展开深度技术交流,拓展应用场景 [13]
存算一体瓶颈,中国团队实现突破
半导体芯闻· 2025-07-02 18:21
冯诺依曼架构与内存墙问题 - 冯诺依曼架构将数据和指令存储在同一内存中,简化硬件设计并实现通用计算,但存在指令顺序执行和CPU等待存储器读写的性能瓶颈[1][3] - 存储器性能发展滞后于CPU导致"内存墙"问题,CPU需大量时间等待数据搬运,降低系统整体性能[3] 存算一体技术发展 - 存算一体(PIM/CIM)通过在内存中执行计算任务,避免数据传输,解决存储墙问题,降低时间和能源成本[5] - 技术演进分为三个阶段:早期基于DRAM/Flash的近存计算、新型存储器(RRAM/PCM/STT-MRAM)推动的模拟计算型PIM、2017年后原型产品落地[6][8] - 主流PIM技术包括数字型(SRAM/DRAM)、模拟型(RRAM/PCM)和混合型,分别面临面积功耗、精度控制和架构设计挑战[7][8] 行业参与与产业化进展 - 三星、SK海力士、美光、英伟达等国际巨头与寒武纪、华为海思、阿里达摩院等国内企业共同投入研发[6][8] - 知存、苹芯、亿铸等国内初创企业聚焦ReRAM/MRAM领域,推动存算一体在边缘计算的应用[8] 排序操作的瓶颈与突破 - 排序是AI系统中耗时最高的基础操作,存在于智能驾驶、推荐系统、大模型训练等场景,传统架构难以高效处理[10][11] - 北京大学团队首次实现存算一体排序架构,通过忆阻器阵列和并行比较机制,速度提升15倍,能效提升6-183倍,功耗仅为CPU/GPU的1/10[13][15][17] - 该技术支持百万级数据并行排序,AI推理响应速度提升70%,突破存算一体通用性限制[15][17] 技术应用与战略意义 - 成果可应用于国产智能芯片、边缘AI设备、智慧城市等领域,实现毫秒级十万级事件优先级评估[16] - 全自主技术栈具备国产化能力,为下一代AI算力体系提供底层支持[16][17]
【私募调研记录】纽富斯投资调研佰维存储
证券之星· 2025-07-01 08:08
公司调研信息 - 知名私募纽富斯投资近期调研了佰维存储 [1] - 调研形式为特定对象调研 [1] 佰维存储业务布局 - 公司在AI时代布局高性能存储产品 涵盖手机、PC、智能穿戴设备等领域 [1] - 产品包括UFS、LPDDR5/5X、DDR5超频内存条、PCIe 5.0 SSD等 [1] - 智能穿戴领域与Google、Meta等知名企业合作 [1] - 2024年面向AI眼镜产品收入达1.06亿元 预计2025年增长超500% [1] 技术研发与产能规划 - 晶圆级先进封测项目预计2025年下半年投产 覆盖多种先进封装形式 [1] - 首款主控芯片SP1800 eMMC 5.1已量产 未来将推进UFS主控芯片等关键领域 [1] - 开发多种存算合封技术方案 积极推进存算一体产业布局 [1] 智能汽车领域进展 - 推出车规级eMMC、LPDDR、NOR Flash等产品 [1] - 产品已在国内头部车企量产 [1] 行业发展趋势 - 存储行业未来将关注云、边、端深度应用 [1] - 强调本地化交付能力 推进存储与先进封装整合 [1] 机构背景 - 深圳纽富斯投资有限公司实缴资本1000万 [2] - 为中国证券投资基金业协会登记备案的私募基金管理人 [2] - 团队具备多年二级市场主动投资和量化投资经验 [2]
新紫光集团董事、联席总裁陈杰:我国有移动互联网时代的成功经验,最有能力做好AI应用创新
每日经济新闻· 2025-06-28 18:33
中国AI产业发展策略 - 针对国际已达成共识且有效的技术卡点,如Transformer架构和COT技术,需集中力量进行正面突破 [1] - 在跟踪国际技术的同时,必须采用创新方式以避免长期落后 [1] 半导体领域创新方向 - 中国半导体工艺目前基本停留在7纳米节点,且将维持较长时间 [4] - 在工艺受限的情况下,应重视系统和芯片架构创新,如3D堆叠和存算一体,以缩小与国外大算力芯片的差距 [4] 端侧AI技术优势 - 端侧AI技术难度相对较低,可发挥中国研发人员众多和对应用场景理解深刻的优势 [4] - 端侧AI传统应用包括翻译、语音识别和目标检测,新兴应用包括智能驾驶、服务机器人和智能场景感知 [4] AI应用创新建议 - 中国在移动互联网时代的产业规模和应用场景创新表现突出,未来可借鉴此经验推动AI应用创新 [4] - 建议更多关注行业垂直领域AI应用,结合行业特性和需求进行定制化研发,以落地实践引领技术发展 [4]