Workflow
神经形态计算
icon
搜索文档
突破1纳米!北大团队取得重要芯片突破
半导体行业观察· 2026-02-24 09:23
北京大学铁电晶体管技术突破 - 北京大学团队成功将铁电晶体管(FeFET)的物理栅长缩减至1纳米极限,达到原子尺度 [2] - 该技术实现了0.6V的超低工作电压,使铁电晶体管能耗比国际最好水平降低了一个数量级 [8] 铁电晶体管的特性与优势 - 铁电晶体管同时兼具存储和计算能力,即“存算一体”,其工作模式类似于人脑神经元 [3] - “存算一体”特性有望彻底打破传统计算架构中“存储”与“计算”分离导致的“内存墙”效率瓶颈 [3] - 业内将铁电晶体管视为神经形态计算方面最具潜力的新型基础器件 [3] 技术突破的核心机制 - 团队利用纳米栅极结构设计,巧妙解决了铁电材料改变极化状态需要高电压高能耗的问题 [3] - 纳米栅设计对电场进行“杠杆放大”,能以极低电压驱动铁电材料发生极化反转,从物理机制上实现能耗跨越式降低 [5] 潜在应用与行业影响 - 该技术制备的纳米栅铁电晶体管具有超低工作电压与极低能耗特性 [5] - 该器件有望为构建高能效数据中心提供核心器件方案 [5] - 该技术为发展下一代高算力人工智能芯片奠定了关键技术基础 [5]
印度要干掉传统晶体管
半导体芯闻· 2026-01-04 18:17
研究背景与核心问题 - 半个多世纪以来,行业一直在探索利用分子构建电子器件以突破硅基限制,但分子器件内部行为复杂、难以可靠预测和控制 [2] - 神经形态计算旨在寻找一种能同时存储信息、执行计算并进行适应的材料,但当前主流方法更像是模拟学习过程,而非材料本身具备学习能力 [2] 解决方案与技术创新 - 印度科学研究所的研究团队创造了一种可调控的微型分子器件,能根据刺激方式作为存储单元、逻辑门、选择器、模拟处理器或电子突触发挥作用 [3] - 该器件的灵活性源于化学方法,通过精心设计17种钌配合物,并调整分子周围的配体和离子,使单个器件能展现多种动态响应,甚至在很宽的电导值范围内切换数字和模拟行为 [3] - 同一个分子系统具备多功能性,通过合适的分子化学和环境,单个器件可以存储信息、进行计算,甚至可以学习和遗忘 [4] - 研究团队构建了基于多体物理和量子化学的输运框架,能根据分子结构预测器件功能,追踪电子传输路径、分子氧化还原过程及反离子迁移 [4] 潜在应用与行业影响 - 该复合物的适应性使得将记忆和计算功能结合在同一种材料中成为可能,为神经形态硬件开辟了新途径,使学习功能能够编码到材料本身 [5] - 团队正致力于将这些材料应用于硅芯片,目标是构建未来既节能又具有内在智能的人工智能硬件 [5] - 此项工作表明,化学可以成为计算的架构师,而不仅仅是计算的提供者 [5]
登上Science封面:中国科学家首创毫米级“大脑晶体管”,打破电子器件与生命系统之间的鸿沟
生物世界· 2025-11-23 12:05
文章核心观点 - 香港大学与剑桥大学团队成功研制出世界首款三维水凝胶半导体晶体管,其调制厚度达到毫米级别,具备生物组织级别的柔软度和生物相容性[2][3] - 该技术打破了二维电子器件和三维生命系统之间的鸿沟,为脑机接口、生物混合传感和神经形态计算等先进生物电子系统铺平道路[3] - 研究通过相工程和结构工程创新,实现了毫米尺度上对软物质的电子、离子和机械性能的同步控制[15][16][26] 技术突破与创新 - 研究团队创新性地设计了双网络水凝胶系统,通过构建多孔的次级水凝胶作为3D模板,引导初级氧化还原活性导电水凝胶的3D组装[13] - 相工程确保形成连续的PEDOT+相,导电率从0.9 S/cm提升至100 S/cm,提高超过两个数量级[15] - 结构工程通过溶剂交换等方法精确控制水凝胶孔隙率,使其可在5%-90%的宽范围内调控[16] - 研究发现存在最佳孔隙率范围,对应最高开关比(10^4),与最先进的有机电化学晶体管性能相当[18] 性能表现 - 在1毫米厚度下,水凝胶晶体管的开关比达到约10^4,比参考有机电化学晶体管高出三个数量级[20] - 水凝胶半导体的体积电容与厚度保持线性关系直至毫米级别,而传统薄膜在厚度超过约10微米时无法维持这种线性关系[20] - 水凝胶半导体的关键性能参数dμC*达到0.1 F·V⁻¹·s⁻¹,显著高于传统2D架构的有机电化学晶体管[21] - 即使在任意方向施加高达30%的应变情况下,系统仍能保持高预测精度[24] 应用演示与前景 - 研究团队将3D水凝胶半导体制成自支撑纤维,构建出类脑3D神经形态电路,用于数据计算和分析[23] - 在手写数字识别任务中,基于3D水凝胶晶体管阵列的储层计算系统实现了高达91.93%的识别准确率,与传统人工神经网络相媲美[23] - 该技术有望催生新一代生物集成电子设备,例如高兼容性脑机接口、智能植入式医疗设备等[26] - 水凝胶半导体支持双向生物-晶体管相互作用,包括细胞培养、类器官形成和可编程细胞行为[26]
算力霸权松动,AI硬件的“群雄时代”到来?
科尔尼管理咨询· 2025-10-30 17:40
AI硬件市场现状与冲击事件 - GPU凭借强大算力成为AI芯片代名词,英伟达借此成为全球市值最高公司之一[1] - 2025年1月中国AI初创企业深度求索发布低成本语言模型,英伟达股价单日暴跌17%,市值蒸发6000亿美元,创华尔街历史最大单日市值缩水纪录[3] - 深度求索新模型研发成本仅为600万美元,引发市场对AI研发能否脱离昂贵芯片硬件的质疑[3] - 美国政府计划未来四年向AI基础设施投入5000亿美元,欧盟推出2000亿欧元“InvestAI”倡议[3] - 英伟达在全球游戏GPU及数据中心GPU市场份额约90%,AMD占据剩余10%份额[4] - 英伟达预计2025年营收较2024年增长超50%,2024年营收达1304亿美元[4] AI加速器技术路线对比 - GPU优势在于并行处理架构,能同时执行多项计算任务,特别适合AI训练阶段处理海量数据[6] - GPU高灵活性与易扩展性使其成为公共云环境通用工作负载的理想工具[6] - ASIC是为特定用途设计的定制化芯片,在执行预定义功能时提供强大且高能效算力[7] - ASIC适合企业内部专用工作负载,但灵活性低、小场景研发成本高且需要专用代码支持[7] - FPGA是GPU与ASIC之间的混合解决方案,具备一定专用性且可重新编程,但在AI芯片格局中处于次要地位[8] - 对于超大规模云服务商,ASIC从全生命周期成本角度极具吸引力,如谷歌TPU和比特大陆Antminer[8] 市场竞争格局与主要参与者 - 英伟达近50%营收来自AWS、微软等大型云服务商,客户战略转变可能引发市场技术变革[10] - AMD GPU价格更低且同等价位下显存更大,但英伟达芯片在能效与整体性能方面更具优势[10] - 英伟达CUDA生态系统在兼容性、工具支持和开发者社区方面占据显著优势[11] - 英特尔2024年4月推出Gaudi 3芯片欲替代英伟达GPU,但推广缓慢,2024年营收目标从5亿美元下调[12] - 谷歌通过云服务出租200万个TPU,同期英伟达售出380万个GPU,谷歌AI加速器营收估计在60亿至90亿美元之间[12] - 谷歌云服务结合自研TPU与英伟达GPU支持全品类AI工作负载,降低对英伟达依赖[12] - 苹果在谷歌云中利用TPU获取额外训练能力,反映英伟达芯片供不应求且TPU被视为优质替代品[13] - Meta于2025年3月开始测试自研AI训练芯片MTIA,旨在提升AI模型性能与效率[16] 新兴初创企业挑战者 - Cerebras推出“晶圆级引擎”芯片,拥有85万个核心,通过更高并行度释放强大算力[14] - SambaNova芯片创下推理性能纪录,其定制芯片算力是传统GPU的10倍,功耗仅为英伟达GPU的1/10[15] - Groq研发面向LLM的ASIC,目标是打造极速AI加速器以最短时间完成特定计算操作[15] - 初创企业硬件存在初始投资较高、集成复杂及扩展性瓶颈等挑战[14][15] 未来技术发展方向 - 硅光子学利用光子传输数据,可提升传输速率、降低延迟并减少功耗,台积电在该领域投入巨额资金[17] - 神经形态计算模仿人类大脑神经结构处理信息,能显著提升效率与计算速度,但目前仍处于萌芽阶段[17] - 量子计算利用量子粒子实现极速计算,有望将AI训练时间从数周缩短至更短周期[17] - 未来AI硬件可能是GPU、ASIC、FPGA与全新芯片架构的混合体,根据训练与推理、公共负载与企业内部负载实现差异化[18]
类脑感知,机器人导航新帮手
人民日报· 2025-10-27 16:04
技术核心与创新点 - 提出一种模仿人类大脑感知模式的新型机器人导航方案LENS,使机器人能在无GPS、能耗受限等场景中实现高效自主定位[1] - 系统设计灵感源于大脑神经元的信息编码方式,采用动态视觉传感器(事件相机),仅在监测到亮度变化和运动时激活像素单元,大幅降低不必要的能耗[1] - 采用适配的神经形态计算架构,通过电脉冲模拟真实神经元间的信号传递,实现自适应学习,系统运行无须高性能计算平台[2] - 系统能源消耗不到传统导航系统的10%,所占存储空间仅180KB,约为同类导航系统的1/300,能在8公里范围内实现高效识别[2] 性能优势与应用潜力 - LENS无须外部定位支持,能以极低能耗重建导航路径,在灾害废墟、隧道矿井、密林深处或遥远星球等信号盲区展现出独特优势[2] - 在定位精度和系统稳定性方面已初步表现出与传统导航方法相当的水平,适用于救援机器人、月球车、森林监测设备等能源受限、环境复杂的场景[2] - 该技术跳出了依赖预设高精度地图和庞大算力的传统框架,将重点转向实时环境适应与能效最优,代表了更接近生物智能的第三代导航发展方向[3] 发展阶段与未来挑战 - 目前系统仍处于研发阶段,以神经形态计算为基础的导航系统仍处于发展初期[3] - 未来计划扩大识别范围,在更复杂多变的环境中部署,并集成到轻量级飞行器或可穿戴设备等平台[3] - 技术走向广泛应用需克服关键挑战,包括解决事件信息不连续导致的系统运行稳定性问题,提升类脑处理器能力,以及实现从实验室到真实非结构化环境的稳定迁移[3] - 未来发展关键在于实现多种感知模态的深度协同、类脑芯片的高效能支撑以及自适应算法的持续进化[3]
类脑感知,机器人导航新帮手(创新汇)
人民日报· 2025-10-27 06:03
技术核心与创新 - 提出模仿人类大脑感知模式的新型导航方案LENS 使机器人能够运用"类脑"识别环境位置 在无GPS 能耗受限等场景中实现高效自主定位 [1] - 系统设计灵感源于大脑神经元信息编码方式 采用动态视觉传感器 即事件相机 该设备仅在监测到亮度变化和运动时像素单元才被唤醒并发出信号 大幅降低不必要能耗 [1] - 研究团队设计适配的神经形态计算架构 使系统能以类似于人脑方式处理信息 通过电脉冲进行数据处理 模拟真实神经元间信号传递 并通过权重调整实现自适应学习 [2] 性能优势 - 系统运行无须高性能计算平台 能源消耗不到传统导航系统的10% 所占存储空间仅180KB 约为同类导航系统的1/300 却能实现8公里范围内高效识别 [2] - 在多种测试条件下 LENS在定位精度和系统稳定性方面已初步表现出与传统导航方法相当水平 [2] - 系统能够快速分析环境变化信息 形成简单稳定位置记忆 在复杂场景中保持对自身位置感知 [2] 应用场景与潜力 - LENS无须外部定位支持 能以极低能耗重建导航路径 为机器人拓展在灾害废墟 隧道矿井 密林深处或遥远星球等信号盲区应用新场景打开大门 [2] - 系统在救援机器人 月球车 森林监测设备等能源受限 环境复杂应用场景中展现出独特优势 [2] - 研究团队计划扩大系统识别范围 尝试在更复杂多变环境中部署 并集成到轻量级飞行器或可穿戴设备等平台 实现更长续航与更广适应性 [3] 行业评价与发展阶段 - 行业专家认为LENS系统核心突破在于跳出依赖预设高精度地图和庞大算力传统框架 将重点转向实时环境适应与能效最优 代表了更接近生物智能的第三代导航发展方向 [3] - 目前系统仍处于研发阶段 以神经形态计算为基础导航系统仍处于发展初期 但具备跨越式提升潜力 [3] - 神经形态导航未来发展关键在于实现多种感知模态深度协同 类脑芯片高效能支撑以及自适应算法持续进化 [3]
梅赛德斯-奔驰Vision Iconic概念车全球首秀
央视网· 2025-10-16 19:38
技术突破与创新 - 公司推出Vision Iconic概念车 展示其在电动化与数字化领域的未来愿景 包含神经形态计算 线控转向 太阳能涂层及L4级高度自动驾驶等突破性技术 [2] - 神经形态计算技术模拟人类大脑运作方式 可使自动驾驶数据处理的能耗降低90% [7] - 创新的太阳能涂层可像膏体般无缝涂覆于车身 光伏活性表面适配各种基底 太阳能电池效率高达20% 在理想条件下11平方米涂层每年可为车辆增加12000公里续航 [5] - 线控转向技术结合后轮主动转向系统 为Vision Iconic这类长车型大幅提升操控性 机动性与泊车便利性 同时使内饰设计更灵活 [7] 设计与美学 - Vision Iconic概念车重新演绎了标志性格栅 采用宽大镀铬框架 熏黑玻璃质感网格与集成式轮廓照明 新一代盾形格栅将于2025年9月随全新纯电GLC SUV首次亮相 [2] - 概念车将引擎盖上的三叉星徽立标点亮 进一步强化品牌辨识度与出众风范 [2] - 内饰以休息室舒适氛围和华丽装饰艺术风格为灵感 仪表台中央设有"齐柏林"悬浮式玻璃结构 融合经典指针与数字仪表屏功能 [4] - 车门开启时仪表盘呈现电影质感动画 横跨座舱的屏幕中央时钟可化身人工智能伙伴 车门面板镶嵌珍珠母点缀 环绕银金色调黄铜把手 [4] 品牌战略与行业参与 - 公司不仅是汽车设计的美学典范 也是全球时尚与设计产业的参与者和先驱者 [9] - 公司通过推出与Vision Iconic概念车一同亮相的胶囊系列时装(包含6套男装及女装) 向上海时装周进行呼应和致敬 展示其在更广泛设计领域的影响力 [9]
一位芯片老兵,再战英伟达
半导体行业观察· 2025-10-16 09:00
公司背景与创始人团队 - Nervana Systems由三位拥有神经科学博士学位的创始人Naveen Rao、Amir Khosrowshahi和Arjun Bansal于2014年创立,他们均对能够像人类一样思考的机器着迷[2] - 创始团队在高通公司工作期间萌生创业想法,目标是打造机器学习处理器,专注于解决深度学习技术的硬件障碍[3] - 团队获得加州大学伯克利分校红木理论神经科学中心主任Bruno Olshausen的支持,被认为在AI硬件领域处于领先地位[4] 早期发展与市场环境 - 2014年创立时人工智能被视为缺乏商业价值的领域,融资困难,首轮融资仅筹集60万美元[7][8] - 谷歌收购DeepMind及AlphaGo击败围棋冠军等事件推动人工智能关注度提升,Nervana随后筹集约2400万美元[7][8] - 公司早期认识到深度学习需要专用硬件,传统中央处理器难以处理,图形处理器尤其是英伟达GPU表现更佳[3] 英特尔收购与整合 - 2016年英特尔以约3.5亿美元收购Nervana Systems,旨在打入由英伟达主导的深度学习训练芯片市场[1][10][11] - 收购后英特尔成立人工智能平台事业部,由Naveen Rao领导,致力于开发专用人工智能芯片[12][13] - 英特尔希望借助Nervana技术开发专用集成电路,以获得超越英伟达的竞争优势[11] Nervana芯片产品与技术细节 - 2018年英特尔推出Nervana神经网络处理器,包括用于深度学习训练的NNP-T1000和用于推理的NNP-I1000芯片[13][15] - NNP-T1000在ResNet-50和BERT等重要训练模型上提供95%的扩展能力,32块芯片运行时性能几乎不下降[15] - NNP-I1000与英伟达T4推理GPU相比,计算密度提高近四倍,单个机架单元每秒可进行最多推理[15] - 芯片采用pod参考设计,由10个机架和480块NNP-T1000卡组成,使用无胶结构互连,专门用于分布式训练[15] - 英特尔曾预计其人工智能产品在2019财年创造35亿美元销售额[16] 项目终止与战略调整 - 2019年12月英特尔以20亿美元收购AI芯片公司Habana Labs,其产品与Nervana芯片定位雷同[18] - Habana Goya芯片在ResNet-50基准测试中性能达每秒14,451个输入,而Nervana NNP-I仅为每秒10,567个输入,性能差距接近1.4倍[19] - 2020年英特尔决定停止Nervana神经网络处理器的开发工作,转向Habana Labs的AI芯片架构,Nervana项目生命周期不到四年[21] 创始人新创业项目Unconventional - Nervana联合创始人Naveen Rao创立新公司Unconventional,目标估值50亿美元,计划融资10亿美元[1][26] - Andreessen Horowitz领投,Lightspeed、Lux Capital和Databricks参与投资,已筹集数亿美元[26] - 公司旨在重新思考计算机基础,构建与生物学一样高效的智能新基础,摆脱生物学包袱,实现大脑规模效率[27][28] - 新公司融资规模和估值目标远超Nervana时期,反映AI硬件市场巨大变化和投资者高期望[26] AI硬件市场演变与竞争格局 - 2024年AI硬件市场规模达数千亿美元,英伟达市值突破4万亿美元,数据中心业务季度营收超数百亿美元[30][35] - 竞争格局多元化,除传统芯片厂商外,科技巨头如谷歌、亚马逊、微软、Meta纷纷自研AI芯片[30] - 技术路线出现创新方向,包括模拟计算、神经形态芯片、光子计算等,为新进入者提供差异化机会[30] - 英伟达建立强大软件生态系统CUDA平台,经过近二十年发展成为AI开发者标准工具[31] - 顶尖芯片设计人才供不应求,科技巨头和高薪初创公司竞争激烈[32]
科学家用导电塑料制成人造神经元,可表现多达17种关键特性
科技日报· 2025-09-24 15:41
技术突破 - 瑞典林雪平大学团队开发出由导电塑料制成的人造神经元,能够模拟生物神经元多达17种关键特性 [1] - 该人造神经元能够实现“反重合检测”的信息处理功能,这是人类触觉感知等复杂过程的关键原理 [1] - 团队将整个系统浓缩为一个有机电化学晶体管,结构极为精简,尺寸与真实人类神经细胞相当 [2] 材料优势 - 人造神经元使用共轭聚合物柔性有机材料,该类材料不仅能传导电子,还能传输离子,具备与生物系统自然交互的独特优势 [1] - 有机电子学被证明不仅是硅基电子的柔性替代品,更有潜力实现新型神经形态计算,将生物学与电子学真正连接起来 [2] 应用前景 - 该技术突破为新一代可植入人体的传感器、医疗器件以及先进机器人技术带来了广阔前景 [1] - 该能力使得未来在假肢或机器人中集成更灵敏、更智能的触觉成为可能 [1] - 这是目前报道过的最简单且与生物学相关性最高的人工神经元之一,为未来将人工神经元直接整合进活体组织或软体机器人系统铺平道路 [2]
处理器芯片,大混战
半导体芯闻· 2025-08-18 18:48
人工智能芯片市场格局 - 人工智能发展推动公司面临性能优化与未来模型适配的难题,目前市场提供针对高端手机、数据中心及边缘设备的多样化方案,包括GPU、ASIC、NPU、MPU和FPGA [1] - 云端与边缘设备存在明显区分,边缘设备涵盖手机、汽车等多样化形态,各自具有不同的散热和功耗特性 [1] - 人工智能训练主要在云端进行,而推理在边缘设备中占比较大,边缘设备更注重隐私保护、本地数据处理及响应效率 [1] 处理器架构比较 - CPU具有极高灵活性和可编程性,但并行处理能力不足,适合作为备用引擎运行通用代码 [2] - GPU功能强大且用途广泛,是数据中心首选处理器,但高功耗限制其在移动设备中的应用 [2] - NPU针对人工智能任务优化,具备低功耗和低延迟特点,适合移动和边缘设备,在性能与效率间取得平衡 [2] - DSP介于GPU和NPU之间,为人工智能及其他工作负载提供更高能效,可作为NPU的备用和卸载机制 [2] - ASIC为特定推理任务提供最高效率和性能,适合大规模部署,但缺乏灵活性且开发成本高 [2][3] 定制化芯片趋势 - 大型系统公司如谷歌、微软、亚马逊等开始涉足芯片制造,推动定制化硅发展,以满足特定功耗和软件优化需求 [4] - 高端定制芯片在移动设备中存在软件所有权维护难题,需要广泛开发者生态支持 [4] - ASIC难以适应快速变化的人工智能模型,GPU因其架构灵活性更具优势 [4] - 人工智能算法快速发展推动硬件对灵活性和适应性的需求,并行计算引擎更适合人工智能工作负载 [4] DSP与人工智能融合 - 传统DSP处理领域如音频和相机接口正被人工智能算法取代,实现更高精度和复杂功能 [6][7] - 手机中NPU可能由DSP演变而来,例如高通Hexagon DSP通过扩展成为低功耗人工智能加速器 [7] - 人工智能推动DSP角色转变,在移动领域渗透到特定处理领域如相机接口和音频处理 [6][7] FPGA应用前景 - FPGA提供算法上的灵活性和可管理性,适合不断变化的算法如稀疏度算法 [8] - 嵌入式FPGA(eFPGA)结合ASIC的低功耗和FPGA的计算能力,适合需要更新算法的场景 [8] - FPGA擅长确定性结果和宽并行处理,在信号处理类型任务中表现优异 [8] 边缘设备处理器选择 - 低功耗边缘设备通常配备MCU和NPU,运行轻量级实时操作系统如FreeRTOS或Zephyr [10] - 手机和高端设备运行完整操作系统如Linux或iOS,并配备GPU和NPU [10] - 神经形态计算作为手机人工智能处理的备选方案,可降低功耗但生态系统尚不完善 [11] 边缘计算市场趋势 - 边缘领域不存在一刀切的解决方案,应用范围从企业数据中心到移动设备不等 [12] - 市场趋势朝向更多定制化和细粒度优化发展,特定领域和工作负载需求推动多样化解决方案 [12] - 功耗、性能和面积/成本是主要考虑因素,其重要性因应用领域和供电方式而异 [12]