Workflow
存算一体
icon
搜索文档
算力赛道“奇兵”:模拟计算芯片破壁而来
中国汽车报网· 2025-11-06 10:17
技术突破核心 - 北京大学团队成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,首次实现精度可与数字计算媲美的模拟计算系统 [2] - 该芯片在求解大规模MIMO信号检测等关键科学问题时,计算吞吐量与能效较当前顶级数字处理器(GPU)提升百倍至千倍 [2] - 研究团队在试验中成功实现了16×16矩阵的24比特定点数精度求逆,矩阵方程求解经过10次迭代后,相对误差可低至10⁻⁷量级 [4] 性能优势 - 在求解32×32矩阵求逆问题时,其算力已超越高端GPU的单核性能;当问题规模扩大至128×128矩阵时,计算吞吐量达到顶级数字处理器的1000倍以上 [4] - 传统GPU需要处理1天的任务,这款模拟计算芯片仅需1分钟即可完成 [4] - 模拟计算芯片基于阻变存储器实现真正的“存算一体”,从根本上消除了数据搬运的能耗,解决了冯·诺依曼架构的“内存墙”问题 [5][6] 应用前景 - 模拟计算在未来AI领域的定位是强大的补充,最有可能快速落地的场景是计算智能领域,如机器人和人工智能模型的训练 [6] - 在汽车产业,模拟计算芯片的低功耗、高能效特性契合电动汽车的能效管理需求,解决128×128矩阵求逆问题时能耗仅为传统方案的千分之一 [7] - 该技术专注于矩阵方程求解——AI二阶训练的核心,在自动驾驶领域可使车辆更快处理多传感器融合数据,大幅缩短算法迭代周期 [7] 产业挑战 - 模拟计算芯片从实验室走向产业化面临可靠性挑战,汽车电子需要承受-40℃~125℃的温度变化等严苛环境,阻变存储器件的耐久性和稳定性尚待验证 [9] - 数字芯片已形成成熟的规模化制造和供应链体系,而新型模拟计算芯片仍处于产业化过渡早期,成本劣势在价格敏感的汽车行业是一大短板 [9] - 阻变存储的基础材料体系仍未完全确定,器件的一致性和可靠性距离车规级要求的“零失效”标准还有相当距离 [10]
农夫山泉“好朋友”要IPO
搜狐财经· 2025-11-02 23:18
大型基金设立 - 江苏社保科创基金正式签约,首期规模500亿元人民币 [2] - 基金由江苏省与全国社会保障基金理事会、中国工商银行共同组建,旨在服务国家战略并支持江苏发展新质生产力 [2] 低空经济与自动驾驶融资 - 维新宇航连续完成种子轮、天使轮近亿元融资,由慕华科创领投,用于研发全球首款7座3吨级多用途eVTOL飞行器 [3] - 尚元智行完成近亿元A轮融资,由复容投资领投,资金将用于智能滑板底盘升级及构建无人驾驶生态平台 [3] 人工智能与芯片融资 - 亿铸科技完成新一轮融资,投资方包括兴湘资本、农银国际等,公司专注于存算一体AI大算力芯片研发 [4] 医疗健康融资 - 国医通完成近亿元D轮融资,由浙生协同生命健康基金独家领投,资金将用于核心产品开发、商业化推广及新产线投建 [4][5] 企业IPO进展 - 苏州江天包装科技股份有限公司于北交所IPO过会,该公司为农夫山泉供应商,主营标签印刷产品 [6] - 明略科技通过港股上市聆讯,按2024年总收入计为中国最大的数据智能应用软件供应商 [6] 上市公司动态 - 寒武纪遭前CTO梁军索赔42.87亿元,涉及股权激励纠纷,索赔金额依据1152.32万股股票按最高价372元/股计算 [8] - 寒武纪2025年上半年实现营业收入28.81亿元,净利润10.38亿元 [8] - 伟明环保入选印尼废物转化能源项目供应商名单,后续合作仍存不确定性 [8]
AI专题:2025年度国产AI芯片产业白皮书
搜狐财经· 2025-10-22 10:48
文章核心观点 - 国产AI芯片产业正通过双线突破策略应对架构主导、生态短板和规模化落地三大挑战,以实现算力基石的关键作用[1] - 产业在主流架构AI革新和稀疏计算、FP8精度、系统级优化等前沿创新方向取得进展,国内厂商已实现特定领域突破[1] - 产业全景呈现多品类、地域集中的特点,通用并行架构为算力平台优先方向,算力密度与软件生态是核心瓶颈[1] - 智算、智驾、机器人和端侧AI为核心应用领域,全栈国产化受青睐,智能座舱芯片和工业协作机器人是重点突破场景[1] 国产AI芯片发展的意义与挑战 - AI芯片作为算力基石是全球科技竞争关键,需突破架构主导能力、生态体短板和规模化落地三大挑战[1][9][11] - 架构主导能力决定产业发展上限,需成为关键架构定义者或主流架构深度演进者[9][11] - 生态体在软件栈等方面存在显著差距,制约产业发展[11] AI芯片定义与技术路线 - AI芯片核心特征是基于软硬件协同设计理念,关键指标为算力(TOPS)和能效比(TOPS/W)[14] - 广义AI芯片涵盖所有加速AI工作负载的处理器,包括CPU、GPU、FPGA等[15] - 狭义AI芯片特指为AI场景设计的ASIC芯片,如NPU/TPU[15] - 技术路线是通用性与效率的权衡,没有绝对最优解,只有最适合场景的权衡[16] 主流计算架构的AI革新 - x86架构定位通用计算基石,通过AMX、AVX-512指令集、HBM和多芯片封装实现AI创新[18] - Arm架构定位高能效生态,通过SVE2/SME2矢量扩展、为AI优化的CPU核实现端边云协同[18] - x86应用场景包括AI服务器、高性能AIPC、数据中心,Arm应用场景包括移动端AI、边缘服务器、云原生部署[18] 前沿创新方向:稀疏计算 - 稀疏计算核心创新是硬件原生稀疏支持,在硬件层面加入对稀疏数据的识别和处理能力[19] - 通过减少数据搬运提升系统性能效,对边缘设备和高密度数据中心至关重要[19] - 典型应用包括大规模稀疏模型,如推荐系统和自然语言处理网络[19] 国产厂商稀疏计算创新 - 墨芯人工智能实现双稀疏化算法和高稀疏倍率,支持高达32倍稀疏[22] - 华为与清华大学合作研发稀疏矩阵存储专利,异腾系列芯片内置稀疏计算加速功能[22] - 寒武纪聚焦神经网络稀疏方法专利,云天励飞持有稀疏神经网络计算方法专利[22] 前沿创新方向:FP8精度 - DeepSeek发布V3.1模型使用FP8精度,针对下一代国产芯片设计[24] - 摩尔线程为国内首批实现FP8算力量产厂商,算力提升约30%[24] - 砺算科技7G100系列GPU芯片支持FP8精度,有望降低国产AI训练成本[24] 系统级优化:提升算力密度 - 先进集成通过Chiplet、2.5D/3D封装解决制造与集成问题[25] - 计算范式通过存算一体减少数据在存储与计算模块间搬运[25] - 互连技术通过光电共封、硅光互连解决互连带宽与功耗问题[25] 系统级优化:存算一体 - 存算一体颠覆冯·诺依曼架构,解决内存墙与功耗墙问题[26] - 技术路径分为近存计算和存内计算两条路径[26] - 计算模式分为数字和模拟两种,在精度、能效和设计复杂度之间权衡[26] 产业全景与企业布局 - 产业形成CPU、AI SoC、云端/边缘/车端AI芯片、GPU多品类布局[1] - 企业地域集中于上海(15家)、北京(8家)、广东(6家)[1] - 头部企业包括华为海思(昇腾系列)、昆仑芯(7nm XPU架构)、摩尔线程(支持FP8)、沐曦(曦思系列)[1] 核心应用领域 - 智算产业2024年智能算力规模725.3EFLOPS,2026年将达1460.3EFLOPS[1] - 智驾产业舱驾一体趋势显著,小鹏图灵、地平线征程6P等芯片量产上车[1] - 机器人领域宇树科技、优必选等加速商业化,国产芯片聚焦细分场景[1] - 端侧AI覆盖AloT、智能家居等,追求能效与成本平衡[1]
2025年度国产AI芯片产业白皮书-与非网
搜狐财经· 2025-10-21 16:05
产业发展战略意义与现状 - 国产AI芯片是AI产业的算力基石,对保障供应链自主可控和争夺下一代计算主导权至关重要 [1] - 产业正经历从“技术突围”到“生态崛起”的变革,形成传统架构优化与新兴架构创新双线并行的格局 [1] - 产业面临三大核心挑战:架构主导能力不足、生态体系存在短板、规模化落地受阻 [1] 技术创新方向与路径 - 多架构领域持续发力,涵盖x86、Arm、RISC-V、GPU及DSA专用加速器 [1] - 聚焦稀疏计算、FP8精度优化、存算一体、Chiplet异构集成等前沿技术突破 [1] - 墨芯人工智能、华为、寒武纪等企业在稀疏计算领域形成技术积累,摩尔线程等实现FP8算力量产 [1] - 存算一体技术通过近存计算与存内计算两条路径推进,旨在突破“内存墙”难题 [1][42] - 系统级优化技术包括Chiplet先进集成、存算一体计算范式、光电共封互连技术、液冷散热及新材料应用 [40] 产业格局与市场应用 - 产业全景呈现多领域协同发展,CPU、AI SoC、云端/边缘/车端AI芯片及GPU企业各具特色,地域上集中于上海、北京、广东 [2] - 通用并行架构成为算力平台优先发展方向,Chiplet技术被视为突破算力瓶颈的关键路径 [2] - 2024年智能算力规模达725.3 EFLOPS,华为、摩尔线程等企业的万卡级集群已实现部署 [2] - 智驾领域舱驾一体趋势显著,地平线、黑芝麻等企业的芯片已批量上车 [2] - 国产芯片在机器人领域及智能汽车、具身智能等端侧市场场景展现巨大潜力 [2] 核心挑战与瓶颈 - 架构主导能力不足,难以突破技术跟随困境 [1][14] - 生态体系存在短板,软件栈、开发工具与模型兼容性滞后 [1] - 算力密度与软件生态是最需突破的瓶颈 [2] - 量产方面,EDA工具链缺失和先进封装产能不足是主要障碍 [2]
MRAM,台积电(TSM.US)重大突破
智通财经网· 2025-10-18 09:09
存储技术变革背景 - 人工智能、自动驾驶、物联网等新兴应用对存储器的速度、能耗与稳定性提出更高要求,传统存储体系面临多重挑战 [1] - 传统基于电荷存储的技术(如SRAM、DRAM、闪存)在技术节点突破10纳米后,面临可扩展性受限、性能提升困难、可靠性下降等严峻挑战 [2] - 新型非易失性存储技术需兼具DRAM的高速响应能力和闪存的非易失性特征,同时大幅降低功耗 [2] SOT-MRAM技术优势 - SOT-MRAM利用自旋轨道力矩效应实现数据写入与擦除,具备高速写入、高能效和高可靠性三大核心优势 [3][4][5] - 切换速度达到1纳秒级别,几乎可与SRAM媲美,同时保留非易失性优势,数据保持时间可超过10年 [2][13][14] - 三端结构设计将读写电流路径完全分离,解决了耐久性问题和磁性隧道结电阻限制,显著降低能耗 [4][14] - 隧穿磁阻比高达146%,表明MgO与Co₄₀Fe₄₀B₂₀之间形成高质量界面,提供稳定读取裕量 [1][14] 关键技术突破 - 研究团队通过插入超薄钴层形成复合结构,成功解决β相钨材料在半导体制造热处理条件下的相变难题 [7][9] - 复合钨结构可在400°C下维持物相稳定长达10小时,甚至耐受700°C高温30分钟,而传统单层钨在400°C下仅10分钟即发生相变 [9] - 该结构自旋霍尔电导率约为4500 Ω⁻¹·cm⁻¹,阻尼类扭矩效率约0.61,确保了高效的磁化翻转性能 [9] 性能验证与产业化进展 - 成功制备出64千位SOT-MRAM原型阵列,在1纳秒切换时间下的临界电流密度为48.0兆安/平方厘米,在10纳秒下为34.1兆安/平方厘米 [13] - 器件热稳定性参数Δ约为116,数据保持能力出色,可满足非易失性存储的严格要求 [14] - 设计已考虑与现有半导体后端工艺的兼容性,为大规模量产铺平道路,并计划进一步扩展至兆比特级集成 [14][15] 行业应用前景 - SOT-MRAM有望替代高速缓存级别的SRAM,成为AI加速器的片上缓存,显著降低系统能耗 [6][15] - 其非易失性特性对电池供电的物联网终端尤为有利,设备可快速启停而不丢失数据 [15] - 或将推动传统“SRAM缓存—DRAM主存—闪存外存”三级架构的重构,简化系统架构并提升效率 [15] - 为“存算一体”等新型计算架构提供可行性,有助于突破传统冯·诺依曼结构的“存储墙”瓶颈 [16]
MRAM,台积电重大突破
半导体行业观察· 2025-10-18 08:48
存储技术变革需求 - 当前计算系统依赖SRAM、DRAM和闪存构成的存储层级体系,但随着技术节点突破10纳米,传统电荷存储技术面临可扩展性受限、性能提升困难、可靠性下降等挑战[3] - 人工智能和边缘计算等新兴应用要求存储器兼具DRAM的高速响应能力和闪存的非易失性特征,同时需大幅降低功耗[3] - 新型SOT-MRAM的切换速度达到1纳秒级别,几乎可与SRAM媲美,并保留非易失性优势,远优于DRAM的14毫秒延迟和3D TLC NAND的50至100微秒读取延迟[3] SOT-MRAM技术优势 - SOT-MRAM利用强自旋轨道耦合材料产生自旋轨道力矩,实现磁性隧道结内纳米磁体的磁化翻转,从而完成数据写入与擦除[4] - 技术具有三大核心优势:通过自旋轨道力矩效应实现纳秒级高速写入;三端结构设计分离读写电流路径,显著降低能耗;读写操作独立使器件耐久性大幅提升,数据保持能力出色[4][7] - 这些优势使SOT-MRAM有望替代高速缓存级别的SRAM,成为新一代计算系统的核心存储组件[4] 关键技术突破:热稳定性解决方案 - 研究团队通过插入超薄钴层形成复合结构攻克β相钨热稳定性难题,钴层厚度仅0.14纳米,发挥扩散阻挡层和消耗热预算的双重作用[7][8] - 复合钨结构在400°C下可维持物相稳定长达10小时,耐受700°C高温30分钟,而传统单层钨在400°C下仅退火10分钟就发生相变[8] - 该结构保持优异自旋转换效率,自旋霍尔电导率约为4500 Ω⁻¹·cm⁻¹,阻尼类扭矩效率约为0.61,确保高效磁化翻转性能[8] 器件性能验证 - 成功制备64千位SOT-MRAM原型阵列,实现1纳秒自旋轨道力矩翻转速度,本征翻转电流密度在10纳秒条件下为34.1兆安/平方厘米[11] - 器件热稳定性参数Δ约为116,数据保持时间可超过10年,隧穿磁阻比高达146%[12] - 三端结构设计实现读写操作完全独立,降低能耗,适用于对功耗敏感的边缘计算和移动终端应用场景[12] 产业化应用前景 - 研究从设计之初面向现有半导体后端工艺优化,确保工艺兼容性,为大规模量产铺平道路[12][14] - 计划进一步扩展至兆比特级集成,并将写入能耗降至每比特亚皮焦级别[14] - 在人工智能场景中,SOT-MRAM可作为AI加速器的片上缓存,显著降低系统能耗;在边缘设备中,其非易失性使设备可快速启停而不丢失数据[14][15] - 技术有望推动存储层级体系重构,填补SRAM与DRAM之间的性能空白,甚至取代其中一者,简化架构提升系统效率[15]
研判2025!中国神经形态芯片行业产业链、市场规模及重点企业分析:3D堆叠+忆阻器技术使能效比飙升50倍,技术突破与市场需求双重推动行业发展[图]
产业信息网· 2025-10-16 09:20
行业概述 - 神经形态芯片是模仿人脑神经网络结构和功能的新型芯片,旨在构建具备信息感知、处理和学习功能的智能化计算平台 [2] - 主流实现技术包括数字CMOS型、数模混合CMOS型以及基于新型器件的混合系统三种 [2] 行业发展历程 - 行业历经三大阶段:2010-2018年为学术研究阶段,技术成熟度从33.25%跃升至95% [3] - 2019-2023年进入工程化突破期,专利申请峰值达96件,实现小规模生产与应用验证 [3] - 2024年至今为商业化加速阶段,2025年实现7纳米芯片量产,封装测试国产化率达92% [3] 市场规模 - 2024年中国神经形态芯片行业市场规模约为25.48亿元,同比增长12.89% [1][5] - 2024年中国人工智能核心产业规模约为6000亿元,同比增长3.68%,为神经形态芯片提供关键应用市场 [5] 技术进展 - 清华大学“天机芯”和浙江大学亿级神经元类脑计算机展示了技术实力 [1][5] - 2025年企业在7nm以下制程量产良率提升,部分实验性产品采用3D堆叠与新型忆阻器材料,能效比传统GPU提升50倍以上 [1][5] - 寒武纪思元370-N芯片支持脉冲神经网络加速,算力密度达10TOPS/W,接近人脑能效水平 [6] 产业链与竞争格局 - 产业链上游包括半导体材料(单晶硅、单晶锗等)、特殊材料(忆阻器等)及生产设备(光刻机等),中游为芯片研发生产,下游应用于人工智能、智能设备等领域 [5] - 竞争格局呈现“设计领先、制造突破”特征,设计环节华为海思、寒武纪、地平线三足鼎立,制造端中芯国际与长电科技构建完整产业链 [6] 重点企业经营情况 - 寒武纪2025年上半年营业收入为28.81亿元,同比增长4347.82%,归母净利润为10.38亿元,同比增长295.82% [7] - 中芯国际2025年上半年营业收入为323.48亿元,同比增长23.14%,归母净利润为23.01亿元,同比增长39.76% [7] - 中芯国际N+2工艺良率达99.98%,长三角建成全球首条28纳米神经形态芯片专用生产线,年产能达12万片 [7] 行业发展趋势 - 技术架构将围绕“存算一体+脉冲神经网络”迭代,7纳米及以下先进制程普及推动能效比跃升,光子芯片等技术将突破功耗瓶颈 [7] - 应用场景从专业领域向消费级市场扩展,涵盖自动驾驶、医疗健康、工业自动化和消费电子等领域 [8] - 在国家集成电路产业投资基金三期3440亿元注资驱动下,产业链加速国产化替代,设计、制造、封测等环节国产化率持续提升 [9][10]
九天睿芯宣布已完成B轮融资,规模超亿元人民币!
搜狐财经· 2025-10-13 17:03
融资与战略规划 - 公司完成B轮融资,规模超亿元人民币,由元禾璞华、哇牛资本等新机构出资,韦豪创芯、奇绩创坛等原有股东继续加持 [1] - 融资资金将精准投入三大核心战略方向:技术纵深突破与产品矩阵拓展、全球市场开拓与产业生态构建、人才梯队建设 [2] - 公司计划未来3年全力推进两代大容量大算力存算一体芯片研发,第二代芯片已流片成功,支持1~3B参数轻量化大模型,第三代芯片目标支持100B参数大模型推理,成本仅为目前方案的十分之一 [4] - 在市场拓展方面,公司将深化与头部终端品牌客户、上游核心供应商及模型算法公司的战略合作,构建“软硬结合”产业生态 [4] - 在人才建设方面,公司计划大规模扩充队伍,重点吸纳NPU架构、ESL建模、技术型市场等核心领域专业人才 [4] 技术优势与产品创新 - 公司致力于打造高能效、高面效、高带宽存算一体AI芯片,以突破传统冯·诺依曼架构的限制及境外先进工艺封锁 [2] - 公司采用多层级存算融合技术路径,将存算一体与近存计算结合,从根本上打破“存储墙”和“功耗墙”问题 [5][6] - 公司已构建完整的边缘AI芯片产品矩阵,ADA100超低功耗语音算力芯片采用感存算一体架构,实现强大算力与超低功耗的平衡 [6] - ADA100芯片体积仅1.4mm×1.6mm×0.45mm,待机功耗70μA,全功率功耗170μA,功耗水平仅为同类产品的五分之一到十分之一 [8] - 该芯片支持关键词识别、人声检测、场景分类等多种语音处理功能,后续方案将拓展至姿态检测、眼动追踪、生物信号识别等 [8] - 公司第二代ADA200视觉处理器方案已流片成功,支持IoT视觉/姿态控制,如眼动追踪、手势识别等 [10] 市场应用与商业进展 - ADA100芯片凭借超低功耗、小体积、低成本、易开发等优势,适用于智能眼镜、智能耳机、车机系统、智能家居及穿戴产品等领域 [8] - 公司芯片产品已在多家客户量产,并获得多个国际一线智能眼镜、智能耳机及助听器品牌的订单 [10] - 公司秉持“芯片算子联合优化”理念,与全球合作伙伴共同推动智能计算边界拓展,为万物互联夯实算力基础 [10]
清华大学集成电路学院副院长唐建石:高算力芯片,如何突破瓶颈?
新浪财经· 2025-10-03 15:16
行业背景与挑战 - 人工智能领域算力需求爆发式增长,AI算力需求每不到六个月便实现翻倍,增速远超摩尔定律驱动的硬件算力提升速度 [2] - 中国智能算力规模2025年已突破数十万亿亿次,国家计算力指数与数字经济、GDP增长紧密相关 [2] - 行业面临双重硬件制约:摩尔定律放缓导致晶体管尺寸微缩难度加大,以及先进光刻机单次曝光尺寸固定为858平方毫米,限制了GPU等单芯片的最大面积 [2][4] - 美国长期主导计算芯片体系,其依赖指令集、工具链、操作系统构成的完整生态支撑 [2] 芯片算力提升路径 - 将芯片算力拆解为三个核心要素:晶体管集成密度 × 芯片面积 × 单个晶体管算力 [4] - 传统提升集成密度路径依赖晶体管尺寸微缩,当前已实现每平方毫米数亿个晶体管的集成,例如英伟达H200 GPU在800平方毫米面积内集成近1000亿个晶体管,但面临功耗、成本与良率挑战 [6] - 未来实现超万亿晶体管集成需依托以芯粒技术为代表的2.5D/3D集成技术,将集成维度从“面密度”拓展至“体密度” [6] 芯粒技术发展 - 芯粒技术是融合架构设计、互联设计、存储封装、电源散热及先进光刻的综合技术体系 [6] - 为推进自主生态建设,牵头组建“中国中关村高性能芯片互联技术联盟”,已制定12项团体标准、牵头编制5项国家标准 [6] - 依托国家重大项目建设“北京芯力技术创新中心”,打造芯粒技术一站式服务平台,目前该平台已完成通线并初步具备小批量量产能力 [6] 晶圆级芯片技术路线 - 国际上存在两类典型晶圆级芯片技术路线:Cerebras WSE采用的曝光厂拼接技术,以及Tesla Dojo采用的完好晶粒结合有机基板重塑晶圆路线 [7] - 学院团队提出“硅基基板 + 完好晶粒”技术路线,经测试能支撑芯片算力达到3-15 PFlops@FP8,性能超过4纳米工艺的英伟达GB200 GPU [7] 存算一体与忆阻器技术 - 忆阻器采用“两电极 + 中间氧化层组变层”结构,通过施加电源脉冲调节电导可实现多比特非易失存储,单个忆阻器可同时承担多比特乘法器、加法器与存储单元的功能 [9] - 相比传统数字电路,忆阻器的能效比CPU、GPU提升一个数量级,且在擦写速度、耐久性、多比特存储能力及成本方面优于闪存、MRAM、PCM等其他非易失存储器 [9] - 忆阻器存算一体技术从器件材料优化、交叉阵列功能演示,发展到2018年后与CMOS电路集成打造原型芯片,呈现指数级发展趋势 [9] 忆阻器工艺突破 - 团队与中芯国际合作研发出覆盖55纳米、40纳米、28纳米、22纳米至12纳米多个节点的忆阻器集成工艺,具备良好的工艺迁移能力 [10] - 忆阻器集成规模达上百兆,良率可达4个9至6个9,实现4比特编程,40纳米、28纳米节点的存储产品已实现一定规模量产,工艺水平进入国际第一梯队 [10][12] 忆阻器核心创新方案 - 为提升计算精度,研发“混合训练架构”,研制出国际首款多阵列忆阻器存算一体系统,成功演示多层卷积神经网络计算,能效达110+ TOPS/W [12] - 为实现片上训练,提出“Stellar片上学习框架”,研制出国际首款全系统集成的支持片上高效学习的忆阻器双算力芯片,在相同任务下能耗比先进工艺数字芯片低1-2个数量级 [12] 产业化进展 - 忆阻器存储技术已相对成熟,台积电也在推进12纳米及更先进节点的忆阻器存储工艺研发 [15] - 团队孵化的企业已实现1-16MB典型规格忆阻器存储产品的量产 [15] - 孵化“北京亿元科技”初创公司,推出面向科研的存算一体硬件平台,并联合咪咕、字节跳动研发存算一体计算加速卡,在内容推荐场景开展探索性应用 [15] 未来发展方向 - 实现高算力芯片突破需依托多层次协同创新:引入存算一体新计算范式,并推动其与进程计算、主流计算架构的融合 [15] - 通过芯粒堆叠、单片三维集成等技术构建异构集成层次化芯片,突破单芯片面积限制 [15] - 团队正关注硅光、光电子融合等技术,计划引入光模块加速数据传输,丰富高效芯片的技术探索路径 [15]
这一次,天玑9500的端侧AI能力,友商赶不上了
机器之心· 2025-09-22 18:27
天玑9500芯片发布与性能突破 - 联发科推出新一代旗舰5G智能体AI芯片天玑9500,首次推动端侧AI从尝鲜到好用[2] - 芯片基于第三代3nm制程工艺和全大核架构,集成超过300亿个晶体管[18] - NPU峰值性能相比天玑9400提升111%,同性能下功耗降低56%[18] - AI Benchmark跑分达15015分,接近上代芯片两倍,成为当前AI算力最强移动芯片[19] 端侧AI应用能力提升 - 支持手机端大语言模型处理128K字元超长文本,2秒内完成会议纪要总结[3] - 端侧生成图像仅需10秒,支持4K画质Diffusion Transformer生图,无次数限制[7][9] - 处理相同任务时功耗比天玑9400降低50%,所有AI应用完全在本地运行无需上传云端[11] - 端侧长文本处理能力达128K,相当于10小时录音内容[28] 芯片架构与技术优化 - 采用超性能+超能效双NPU架构,包含第九代AI处理单元和存算一体架构[22][26] - 首发支持BitNet 1.58bit量化推理框架,相比FP8精度功耗降低50%[25] - 存算一体架构使低功耗小模型运行功耗下降42%[28] - 升级Transformer专用固化电路,优化端侧训练内存至不足2G[27] 开发生态与行业合作 - 天玑AI开发套件支持混合专家模型等四大关键技术,端侧可运行7B参数大模型[30] - 联发科提供标准化AI开发范式,缩短从开发到部署时间[32][33] - vivo X300系列将搭载首个量产个性化定制AI端侧美颜功能[37] - OPPO Find X9应用天玑AI能力于小布识屏和意图搜索,提升NPU硬件使用率[40] 行业发展趋势 - 生成式AI进入实用化阶段,智能体技术让AI从工具进化成自主执行任务的数字员工[14] - 未来AI手机将结合云端大模型与端侧模型,端侧占比持续提升[15] - 端侧生成式AI推理成为技术落地最迫切需求,推动移动芯片快速进化[16][18] - AI手机发展趋势向个性化、主动服务转变,具备理解用户习惯和意图的能力[15][42]