Workflow
内存墙
icon
搜索文档
一家水下AI芯片公司完成10亿元融资,瞄准大模型推理
暗涌Waves· 2026-02-13 08:57
公司近期发展与融资情况 - 算苗科技在四个月内连续完成两轮累计规模近10亿元人民币的融资 [2][3] - Pre-A轮融资由源码资本、石溪资本联合领投,联想创投等多家半导体核心产业方跟投 [3] - Pre-A1轮融资由襄禾资本领投,并获国开金融、北京顺禧等国资背景资本加持 [3] - 募集资金将用于100%国产化3D算力芯片的研发和量产 [3] 公司技术与产品核心 - 公司长期专注于3D算力芯片研发,核心产品是AI大模型推理3D定制化芯片 [4] - 公司旨在通过计算机体系结构创新和3D IC供应链解决AI大模型计算的“内存墙”制约 [4] - 现有AI芯片在推理时,高达70%的计算单元因等待数据搬运而空转,过去20年计算能力增长60000倍,内存带宽仅增长100倍 [4] - 公司研发的3D DRAM带宽可达到32 TB/s,相当于英伟达B200的4倍 [4] - 公司芯片A4的仿真数据显示,在Llama和Mixtral等主流开源大模型上,其推理吞吐量(tokens/s)能达到英伟达H200的1.26倍到2.19倍 [5] - 公司采用12nm工艺的3D架构芯片,通过将内存芯片堆叠在计算核心上并修建垂直通道,实现16-32 TB/s的带宽,以专用芯片设计换取极致推理性能 [12][13] 市场定位与战略选择 - 公司战略聚焦于AI大模型推理芯片,而非训练芯片 [15] - 从市场角度看,未来90%的AI算力需求将发生在推理侧,大模型推理算力需求将远大于训练算力 [15] - 大模型训练终将收敛,推理的成本(TCO)将成为唯一考量,这是ASIC芯片擅长的战场 [15] - 公司认为大模型推理在全球是个千亿美金的算力市场,在中国则是数千亿人民币的市场,且快速增长 [19] - 公司不做GPU,专注于3D芯片的研发、量产和全球销售,并已在该领域投资十多亿人民币 [20] - 公司相信3D芯片代表计算的未来,ASIC是解决大模型推理计算的正确路径,GPU只是过渡 [20] 创始人背景与团队构成 - 创始人汪福全曾是中科院声学所国家重点实验室博士、研究员,师从张仁和院士,后进入中科院计算所从事博士后工作,合作导师为“龙芯”首席科学家胡伟武 [5] - 公司核心科学家大多毕业于中科院计算所、声学所、自动化所以及清华等高校,团队包括半导体行业创业老兵和微软亚洲研究院的前沿AI研究员 [5] - 创始人于2009年创办中科声龙,围绕龙芯进行产业化探索,后于2018年关停相关业务,带领团队进入加密算力芯片领域 [6] - 在加密算力领域,团队选择挑战以太坊算力芯片,并于2021年第四季度推出JASMINER X4芯片,用40nm工艺实现了比英伟达7nm旗舰显卡高出20倍的加密算力功耗比,在以太坊转向POS前一年带来8亿元收入 [8] 技术发展路径与竞争优势 - 公司技术起源于攻克以太坊“抗ASIC”共识算法(ethash)带来的内存带宽瓶颈,最终在2019年底锁定3D堆叠架构 [7][8] - AI大模型计算与以太坊挖矿有相似的内存瓶颈,团队已验证3D堆叠是解决此类问题的最佳现实方案 [8] - 公司认为其生存发展的关键是“AI大模型时代,计算范式跃迁带来的新机遇” [8] - 英伟达因需维护CUDA生态和通用GPU架构的兼容性,其硬件创新受制约,而创业公司可基于第一性原理进行ASIC定制化设计,这是公司的机会 [14] - 创始人认为,在需要极致效率、具象思维的ASIC专用芯片领域,中国工程师擅长“在螺蛳壳里做道场”的精耕细作,加密算力芯片的历史已证明中国公司能称雄,AI推理战场历史会重演 [17] - 公司携手供应链伙伴,开创了中国3D堆叠芯片领域,并已在全球范围内初步形成显著优势 [20] 公司理念与行业展望 - 公司很少提“国产替代”,因其目标是成为具有国际竞争力的芯片公司,为全球AI大模型计算贡献中国优势的全新解决方案 [9] - 创始人的底气来自团队在3D IC领域多年的研发经验,以及在加密算力市场大规模商业化的成功实践 [9] - 创始人认为中国芯片产业的前途在于市场化力量,中国技术的市场化力量被严重低估 [22] - 公司在加密算力全球市场的极限生存训练,历练了团队并与国内3D IC核心供应链伙伴共同发展 [24] - AI算力在未来将像水电气一样成为新时代的基础设施,AI时代核心竞争力在于算力,算力的未来在于架构创新 [28] - 公司坚信3D堆叠架构和ASIC极致优化的设计理念,在未来5-10年内是AI大模型算力的最优解 [28]
一家光芯片公司,获2.2亿美元融资
半导体芯闻· 2026-02-12 18:37
公司融资与估值 - 英国初创公司Olix Computing已完成2.2亿美元融资,由比利时风投机构Hummingbird Ventures领投 [1] - 本轮融资完成后,公司估值超过10亿美元,成为独角兽企业 [1] - 公司此前曾获得Plural、Vertex Ventures、LocalGlobe及Entrepreneurs First等机构的融资 [1] 核心技术:光学AI芯片 - 公司正在研发集成光学组件的人工智能芯片,名为OLIX光学张量处理器 [3] - 该芯片针对AI推理进行优化,旨在解决“内存墙”技术难题 [2] - 芯片采用“创新型内存与互联架构”,利用光子组件构建互联模块,以在电路间传输数据 [1] - 光学互联技术核心优势在于光的传输速度远高于电信号,理论上可实现更高带宽和更低功耗 [2] 内存架构设计 - 公司芯片设计不使用HBM,仅使用SRAM存储数据 [2] - SRAM采用6晶体管结构,直接集成在AI芯片内部,相比独立的HBM模块,数据传输延迟更低 [3] - 公司宣称其光子技术在交互性与延迟方面优于“纯硅基SRAM架构” [3] - 初创公司Cerebras Systems在其晶圆级AI加速器中也优先采用SRAM架构,集成44GB SRAM [3] 产品与研发进展 - 芯片预计明年开始向客户交付 [4] - 公司正在开发编译器,用于将现有AI模型适配到自家芯片上运行 [4] - 公司将利用新融资推进芯片研发 [4] 行业背景与竞争 - 目前已有多家初创企业在研发光子互联技术,其中融资规模领先的Ayar Labs已开发出光学中介层 [2] - Ayar Labs的技术可用于打造面积达40平方厘米的芯片,超过英伟达Blackwell B200显卡的两倍以上 [2] - 谷歌的张量处理器同样为AI模型设计,将张量优化核心与标量、向量处理单元相结合 [3]
光子AI芯片初创公司Olix获得2.2亿美元投资
搜狐财经· 2026-02-12 17:16
公司融资与估值 - 英国初创公司Olix Computing Ltd近日获得2.2亿美元融资 [2] - 本轮融资由比利时风险投资公司Hummingbird Ventures领投,公司估值超过10亿美元 [2] - 公司此前曾获得Plural、Vertex Ventures、LocalGlobe和Entrepreneurs First的投资 [2] 核心技术:光子互连与架构 - 公司开发集成光学组件的人工智能芯片,专为AI推理任务优化 [2] - 芯片采用“新颖的存储和互连架构”,使用光子组件驱动互连部分 [2] - 光学互连传输速度比电信号更快,理论上可提供显著更高的吞吐量,同时功耗更低 [2] - 行业内多家初创公司正在开发光子互连技术,例如Ayar Labs Inc已构建出可用于制造表面积达40平方厘米芯片的光学中介层 [2] 核心技术:解决“内存墙”问题 - 公司处理器旨在解决“内存墙”技术挑战,即AI芯片因HBM外部存储器性能瓶颈而无法全速运行 [3] - 芯片设计通过完全不使用HBM来解决此问题,仅采用速度显著更快的SRAM存储数据 [3] - SRAM直接集成到AI芯片中,更接近主芯片晶体管,从而减少数据传输时间 [3] - 公司声称其光子技术在交互性和延迟方面优于“纯硅SRAM架构” [3] 产品与开发计划 - 公司芯片被称为OLIX光学张量处理单元(OTPU),包含专门优化处理张量的电路 [4] - 芯片可能还包含针对张量以外工作负载(如内存管理)优化的电路 [4] - 公司将使用新筹集的资金支持芯片开发,并正在开发一个编译器以调整现有AI模型在其芯片上运行 [4] - 据《金融时报》报道,公司预计明年开始向客户发货OTPU芯片 [4][5]
DRAM危机,短期无解
半导体行业观察· 2026-02-11 09:27
文章核心观点 - 人工智能数据中心对高带宽内存的庞大需求正导致DRAM市场出现严重短缺和价格飙升,这种供需失衡源于DRAM行业固有的强周期性与AI基础设施超大规模建设的碰撞,预计新增产能和技术进步需要数年才能匹配需求,且价格可能长期保持高位 [2][8][17] 行业现状与供需矛盾 - 本季度DRAM价格已上涨80%至90%,主要受AI数据中心GPU对HBM的旺盛需求驱动,这挤占了其他用途的内存供应 [2] - DRAM行业具有强周期性,新建晶圆厂成本高达150亿美元甚至更多,且建设周期长达18个月以上,导致产能调整严重滞后于需求变化 [8] - 行业在2022-2023年经历衰退后,公司对扩大产能持谨慎态度,2024年和2025年大部分时间几乎没有新产能投资 [9] - 当前AI数据中心建设热潮与前期投资匮乏形成尖锐矛盾,全球有近2000个新建数据中心在规划或建设中,若全部建成将令全球数据中心供应量增长20% [12] 高带宽内存的技术与市场 - HBM是一种3D堆叠DRAM技术,通过堆叠多达12个超薄DRAM芯片并与GPU紧密集成,旨在突破AI计算中的“内存墙”瓶颈 [5][6] - HBM成本通常是其他类型内存的三倍,占GPU总成本的50%甚至更多 [6] - HBM在DRAM制造商收入中占比迅速提升,以美光为例,其HBM及云相关内存收入占比将从2023年的17%增至2025年的近50% [14] - HBM市场总规模预计将从2025年的350亿美元增长至2028年的1000亿美元,这一数字将超过2024年整个DRAM市场的规模 [14] 主要厂商动态与市场影响 - 英伟达是AI数据中心热潮的最大受益者,其数据中心业务收入从2019年第四季度的不足10亿美元飙升至2025财年第四季度的510亿美元 [12] - 最新的AI服务器GPU(如英伟达B300、AMD MI350)普遍使用8个或12个芯片的HBM,进一步推高HBM需求 [12] - 主要DRAM制造商(美光、三星、SK海力士)正在建设新晶圆厂,但投产时间多在2027年及以后,短期内无法缓解供应紧张 [17] - 行业预计到2028年之前供应紧张局面都不会好转 [17] 未来供应、技术与价格展望 - 增加DRAM供应的途径包括现有领先企业逐步扩产、先进封装工艺良率提升以及供应链多元化,新建晶圆厂作用相对较慢 [17] - 未来HBM技术(如HBM4)可能堆叠多达16个甚至20个DRAM芯片,这将进一步增加对硅片(DRAM芯片)的消耗 [18] - 即便新工厂投产,由于计算需求旺盛,DRAM价格下降的速度和幅度预计将远低于其上涨过程,价格可能长期居高不下 [18]
这种芯片将突破内存壁垒
半导体行业观察· 2026-02-10 09:14
文章核心观点 - 加州大学圣地亚哥分校的研究团队开发了一种全新的“体电阻式随机存取存储器(RRAM)”技术,通过摒弃传统的丝状结构,实现了在内存中进行计算,有望突破人工智能的“内存墙”瓶颈 [2][3] 技术原理与创新 - 传统丝状RRAM通过在介电材料中形成低电阻细丝存储数据,但需要过高电压、过程充满噪声且随机,不利于与处理器集成和3D堆叠 [3] - 新开发的体RRAM技术摒弃了细丝,使整个材料层在高阻和低阻状态间切换,避免了高压形成步骤和对器件几何形状的限制 [3] - 该技术将RRAM器件尺寸缩小至40纳米,并成功堆叠多达八层,形成三维电路 [4] - 施加单一电压脉冲可使八层堆叠单元实现64种不同的电阻状态,且堆叠单元电阻值达到兆欧级,优于传统千欧级限制,更利于并行运算 [4] 性能测试与应用前景 - 研究团队将多个八层堆叠组装成1千字节的无选择器阵列,并使用持续学习算法进行测试,对可穿戴传感器数据分类的准确率达到90%,性能与数字实现的神经网络相当 [5] - 该技术特别适用于边缘设备上的神经网络模型,使其能在不连接云端的情况下从环境中持续学习 [5] - 任何能让模型直接在内存上运行的技术都可能成为解决传统内存无法满足大型模型增长需求这一瓶颈的捷径 [6] 行业评价与潜在挑战 - 行业专家认为,将RRAM集成到阵列中是重大进步,任何集成方面的进步都非常有用 [5] - 潜在的挑战在于数据长期保存能力,尽管在室温下可保存数据数年(与闪存相当),但在设备实际运行的高温环境下,其数据保存能力尚不确定 [5]
中国推理芯片突围与成本革命:破“内存墙”、兼容CUDA
21世纪经济报道· 2026-02-04 17:09
行业趋势与共识 - 全球AI算力重心正从训练加速转向推理,未来五到十年推理芯片将主导AI演进方向 [1] - 行业核心需求从依赖GPU、CUDA生态构建的“绝对算力”,转向对高性价比推理芯片的迫切需求 [2] - 推理芯片的增长已超越训练芯片,Groq估值在2025年9月至2026年1月四个月内从70亿美元飙升至200亿美元,增长近3倍 [3] - 谷歌在2025年4月发布第七代TPU “Ironwood”,明确将其定位为面向推理时代的基石 [1] - 英伟达以200亿美元的代价,实质上整合了Groq最核心的资产,包括其创始团队、核心技术人员,并获得其IP的永久授权 [2] 公司战略与目标 - 云天励飞在2025年果断将芯片战略全面聚焦于云端大算力、大模型专用的推理芯片 [3] - 公司致力于通过底层架构创新,力争实现百万Tokens推理成本降低100倍以上的目标 [1] - 公司目标是每年将百万Token的推理成本降低100倍,到2030年实现“百亿Token仅需一分钱人民币”的成本水平 [3] - 未来五年,公司将全力打磨并推广DeepVerse 100、200、300系列芯片,覆盖互联网、通信运营商及各行业头部客户 [6] 技术架构与创新 - 公司正在打造专为大模型推理优化的新型处理器架构GPNPU,其核心公式为“GPNPU = GPGPU + NPU + 3D堆叠存储” [5] - GPNPU架构致力于解决可迁移、可部署、可持续降本三大工程难题 [5] - 在通用生态层面,GPNPU能够实现一行代码完成CUDA程序兼容,以降低迁移成本 [5] - 针对“内存墙”瓶颈,公司正深度研发3D堆叠存储及更前沿的互连技术,以提升带宽与能效 [5] - 在架构工程上,公司采用“算力积木”架构,通过Chiplet扩展与互连思路,实现算力按需扩展 [6] 市场机遇与竞争格局 - 在推理芯片领域,格局尚未成型,谷歌TPU v7、Groq等新兴架构刚刚崭露头角,这为中国企业提供了历史性窗口 [4] - 中国在AI应用场景丰富度与落地速度上全球领先,但在模型层与芯片层仍相对落后,意味着巨大的追赶与超越空间 [3] - 公司认为中国应在训练芯片领域持续追赶,在推理芯片领域依托丰富的应用场景、强大的基建能力及开源模型生态实现弯道超车 [5] 公司核心竞争力与保障 - 公司将核心竞争力总结为技术、产能、生态、市场、资本五大关键要素的协同共振 [6] - 公司是目前国内屈指可数手握充足国产产能保障的企业之一,为芯片大规模量产与交付提供了确定性 [6]
100根内存条换一套房,AI疯狂吞噬全球内存,普通人电脑快买不起了
36氪· 2026-01-20 15:22
核心观点 - AI行业的高速发展正遭遇“内存墙”瓶颈,即内存容量与带宽的严重短缺成为制约算力发挥和行业进步的关键因素[1][2] - DRAM等存储芯片因AI数据中心需求激增而价格暴涨,严重挤压了消费电子市场的供给,导致PC、手机等产品面临成本上升和体验停滞[5][8] - “内存墙”问题不仅推高了硬件成本,更在能耗、延迟和AI模型创新速度上对行业发展构成了根本性挑战[13][17] 行业现状与价格趋势 - 2025年下半年起,存储芯片价格全面飙升,DDR5颗粒现货价自2025年9月以来累计上涨约307%[6] - 高容量服务器内存价格极高,单条顶配价格突破4万元人民币,100根总价达400万元人民币[1][6] - 花旗银行预测2026年DRAM平均售价同比将上涨88%,大幅高于此前53%的预期[2][8] - TechRadar预测DRAM价格在2026年3月将接近翻倍,且PC DRAM合约价在2026年初可能明显上调[3][10] - 行业预测显示,DRAM价格在上涨后将在更高区间企稳,廉价充裕的内存时代已告终结[19] 供需失衡与市场影响 - AI服务器内存需求显著高于普通服务器,叠加HBM和高容量DDR5的产能倾斜,大量吸走了原本分配给PC和手机的产能[5] - OpenAI、谷歌等AI巨头以“价格不设上限”的方式疯狂扫货并提前锁定2026年产能,导致消费级市场供给枯竭[5] - 存储巨头美光(Micron)的CEO警告,新产能仅能满足客户需求的二分之一到三分之二[9] - PC端供应商开始选择性配货,优先保障大型整机厂OEM,压缩对第三方模组厂商的供货[10] - 分析师和行业人士已采取行动避险,例如TrendForce资深研究副总裁已提前购买iPhone17[9] “内存墙”的技术瓶颈 - 训练大模型所需的计算量以每两年750倍的速度增长,远超DRAM带宽(每两年增长1.6倍)和互连带宽(每两年增长1.4倍)的增长速度[13] - 过去20年,芯片算力峰值提升60000倍,但DRAM带宽仅提升约100倍,互连带宽增长约30倍,极度不匹配[13] - 在AI推理场景中,内存已成为主要瓶颈,导致昂贵的GPU算力因等待数据而经常处于闲置状态[14] - 训练大模型需要3到4倍于参数量的内存,数据搬运速度慢于计算速度,主导了大型语言模型的运行延迟[14] “内存墙”引发的连锁问题 - **能耗问题**:在冯·诺依曼架构下,数据在内存与处理器间搬运的能耗,在某些情况下可能远高于计算本身,甚至达到百倍量级,造成巨大能源浪费[17] - **延迟与体验**:内存带宽限制导致像ChatGPT处理长文本时变慢变卡,影响了用户体验[17] - **创新速度**:若无法突破“内存墙”,更大参数量的AI模型将难以在合理时间和成本内完成训练,从而减缓AI创新的整体速度[17] 突破“内存墙”的技术路径 - **HBM(高带宽内存)**:采用硅通孔技术将DRAM芯片垂直堆叠,像“摩天大楼”一样直接连接处理器,以提供极高带宽,这是目前最直接但昂贵的方案[18] - **CXL(计算高速互连协议)**:建立“内存池”,让CPU和GPU共享内存,打破单机容量限制,提高资源利用率[18] - **PIM(存内计算)**:让内存自身具备计算能力,实现数据在哪里就在哪里计算,从根本上消除数据搬运的能耗和延迟问题[18]
存储猛拉,AI存力超级周期到底有多神?
36氪· 2026-01-06 20:19
文章核心观点 AI需求全面驱动存储行业进入上行周期,从HBM延伸至DRAM、NAND、HDD等传统存储领域,行业格局被重塑[3] 本轮周期的猛烈程度高于以往,以美光为例,其下季度毛利率指引达66-68%,创历史新高[1] AI服务器从训练向推理的重心转移,催生了“低延迟、大容量、高带宽”的差异化存储需求,而存储厂商资本开支向高附加值的HBM与DRAM倾斜,形成结构性供需失衡,推动产品价格大幅上涨[3] AI服务器带来的存储大周期 - AI需求彻底重塑存储行业格局,带动HBM、DRAM、NAND、HDD全品类进入全面上行周期[3] - AI服务器数据流动路线清晰:HDD的冷数据 -> SSD预热 -> DRAM中转 -> HBM配合计算,各部分在训练和推理服务器中均需要[12] - 当前AI服务器领域出现明显变化:重心从训练向推理迁移,推理服务器更注重DDR(并发任务)、SSD(快速响应)和HDD(大容量)[14] 各类存储在AI服务器中的角色 - **HBM**:与GPU芯片3D堆叠,是GPU的“专用显存”,具有高带宽、高功耗特点,决定单GPU可承载的模型规模与响应速度,是AI服务器的“性能天花板”[11] - **DRAM (DDR5)**:是数据交换枢纽,连接HBM与NAND的“桥梁”,速度比HBM慢但容量大很多倍,其容量决定单服务器可同时处理的任务数,是AI服务器的“内存基石”[12] - **NAND (SSD)**:是热数据仓库,高频访问数据的“快速持久层”,连接DRAM与HDD,作为AI数据中心的“性能-容量平衡者”,是训练数据“快速补给站”和推理服务“快速响应核心”[12] - **HDD**:海量冷数据的低成本容器,具有大容量、成本低特点,是AI数据中心的“容量基石”,决定整体数据存储规模[12] 当前AI存储的特点与“内存墙”瓶颈 - AI数据中心核心矛盾是“内存墙”瓶颈:算力增长速度远超数据传输速度,导致GPU等计算单元空置率高达99%[5] - 以H100为例,HBM带宽3.35TB/s,单Token计算时间10微秒,但加载模型权重(如10GB)和KV缓存(如20GB)需要约9毫秒,计算闲置时间占比近99%[16] - 应对“内存墙”的三大方法: 1. **HBM升级**:堆叠层数从12-Hi向16-Hi升级,传输速度有望从B300的8TB/s提升至16-32TB/s,减少数据排队等待时间[18] 2. **SRAM应用**:3D堆叠SRAM将KV缓存、模型轻量权重放在计算单元近端,量产后采用“SRAM+HBM”形式(SRAM负责“快”,HBM负责“多”),有望将延迟从100ns大幅缩短至2ns附近[19] 3. **存算一体**:将部分算力嵌入存储内部,彻底消除数据搬运速度问题,预计2027年及之后逐渐成为解决途径[19] - 英伟达收购Groq属于防御性收购,旨在获得其SRAM技术(LPU架构、TSP微架构等)和人才,以提升AI推理能力并防止技术落入竞争对手之手[21] HBM市场供需与升级 - HBM是AI需求带来的“从无到有”的直接增量需求,其需求量与AI芯片出货直接挂钩[23] - 当前主流AI芯片(英伟达、AMD、谷歌)基本搭载HBM3E,三大原厂已开始对HBM4进行送样,HBM4预计2026年开启量产[6][24] - **供给端**:三大原厂(三星、海力士、美光)资本开支重心投向HBM领域[27] 2025年四季度三家合计HBM月产能约39万片,预计到2026年四季度提升至51万片[29] 考虑产能爬坡和50%综合良率,预计2026年HBM供应量约为41.9亿GB[34][35] - **需求端**:HBM需求量通过“CoWoS -> AI芯片 -> HBM”路径估算,2026年全球CoWoS需求量约128万片,对应HBM需求量约42亿GB[36][39] - **供需格局**:2026年HBM市场呈现“供应紧平衡”状态,供应量(41.9亿GB)与需求量(42亿GB)基本匹配[6][39] - **竞争格局**:海力士占据当前HBM市场近一半份额,三星和美光份额接近[32] 随着三星HBM3E在2024年四季度获得英伟达认证,其出货份额有望回升并反超美光[32]
美国制造一颗真正的3D芯片
半导体行业观察· 2025-12-13 09:08
文章核心观点 - 一个由美国多所顶尖大学与Skywater晶圆代工厂合作的团队,成功制造出首颗单片3D芯片,该芯片通过垂直堆叠架构实现了远超传统二维芯片的性能,为解决人工智能硬件面临的内存瓶颈和小型化瓶颈提供了新路径,并有望开启美国国内半导体创新的新时代 [2][3][7] 技术突破与架构创新 - 芯片采用创新的垂直多层架构,关键组件如摩天大楼楼层般向上堆叠,垂直布线如同高速电梯,实现了快速、海量的数据传输 [2] - 该设计突破了传统扁平二维芯片的“内存墙”瓶颈,即计算速度远超数据传输速度导致系统等待的问题 [4] - 与大多数通过堆叠独立芯片实现的3D芯片不同,该芯片采用“单片式”连续工艺,将每一层直接叠加在前一层之上,实现了更高密度的层间连接 [6] - 单片工艺使用的温度足够低,不会损坏下层电路,使得元件堆叠更紧密,连接密度创下纪录 [6] 性能表现与潜力 - 早期硬件测试表明,该原型芯片的性能比同类二维芯片高出约四倍 [7] - 对具有更多堆叠层的未来版本进行模拟显示,在源自Meta开源LLaMA模型的实际人工智能工作负载上,性能提升高达12倍 [7] - 该设计为将能量延迟积(EDP)——平衡速度和能效的关键指标——提升100到1000倍开辟了切实可行的途径 [7] - 通过大幅缩短数据传输距离并增加垂直路径,芯片可同时实现更高吞吐量和更低单次操作能耗 [7] 制造与产业意义 - 整个制造过程完全在美国本土的商业硅晶圆厂Skywater完成,证明了前沿学术概念可转化为国内大规模生产的产品 [6] - 此项工作为美国国内硬件创新新时代奠定了蓝图,使美国能够设计和制造最先进的芯片 [7] - 向垂直单片3D集成的转变需要新一代精通相关技术的工程师,通过合作与资金支持,学生和研究人员正在接受培训以推动美国半导体创新 [7] - 此类突破不仅关乎性能,更关乎能力,能够制造先进3D芯片将有助于更快地创新、响应并塑造人工智能硬件的未来 [8]
传迈威尔科技(MRVL.US)拟斥资50亿美元收购Celestial AI 押注光子互联破局“...
新浪财经· 2025-12-02 14:57
潜在收购交易 - 美国芯片制造商迈威尔科技正就收购芯片初创公司Celestial AI进行深入谈判,交易形式为现金加股票,总价值可能超过50亿美元,交易最早可能于12月3日宣布 [1] - 迈威尔科技是一家网络芯片制造商,市值为785.4亿美元,与博通在供应商定制芯片和网络业务方面存在竞争 [1] - 此次潜在收购将增强迈威尔科技的产品组合,并凸显市场对算力的强劲需求 [1] 收购标的情况 - Celestial AI是一家获得AMD分支机构支持的芯片初创公司,于3月份筹集了2.5亿美元风险资本,使其总融资额达到5.15亿美元 [1] - 该公司董事会成员包括英特尔首席执行官陈立武 [1] - Celestial AI致力于开发名为Photonic Fabric的光互连平台,旨在解决AI计算中的“内存墙”瓶颈,该技术利用光子学(光信号)在AI计算芯片和内存芯片之间建立高速连接 [1][2] 技术与市场机遇 - “内存墙”已成为AI大模型系统性能扩展的主要障碍,源于算力单元与内存之间数据访问速度严重不匹配,当模型参数膨胀至数十万亿时,系统效率因低内存带宽和高延迟而大打折扣 [2] - Celestial AI的Photonic Fabric平台提供高带宽、低延迟和低功耗的解决方案,支持AI加速器从芯片内到多机架部署的扩展 [2] - 行业普遍认为光互连技术将成为下一代AI服务器的标准配置,若收购成功,迈威尔科技将掌握核心IP,增强其争取云巨头(如微软、谷歌)下一代订单的竞争力 [3] 行业竞争格局 - AMD和英特尔等公司急需打破英伟达的NVLink封闭生态,将自家算力芯片延伸至光域互联,而Celestial AI的技术对此具有吸引力 [3] - 三星作为全球HBM和DDR产能第一的公司,也需要Celestial AI的内存池来扩大其商业模式 [3] - 通过收购Celestial AI,迈威尔科技可能获得一张“未来王牌”,在未来的AI基础设施竞争中占据有利位置 [3]