行业背景与挑战 - 人工智能领域算力需求爆发式增长,AI算力需求每不到六个月便实现翻倍,增速远超摩尔定律驱动的硬件算力提升速度 [2] - 中国智能算力规模2025年已突破数十万亿亿次,国家计算力指数与数字经济、GDP增长紧密相关 [2] - 行业面临双重硬件制约:摩尔定律放缓导致晶体管尺寸微缩难度加大,以及先进光刻机单次曝光尺寸固定为858平方毫米,限制了GPU等单芯片的最大面积 [2][4] - 美国长期主导计算芯片体系,其依赖指令集、工具链、操作系统构成的完整生态支撑 [2] 芯片算力提升路径 - 将芯片算力拆解为三个核心要素:晶体管集成密度 × 芯片面积 × 单个晶体管算力 [4] - 传统提升集成密度路径依赖晶体管尺寸微缩,当前已实现每平方毫米数亿个晶体管的集成,例如英伟达H200 GPU在800平方毫米面积内集成近1000亿个晶体管,但面临功耗、成本与良率挑战 [6] - 未来实现超万亿晶体管集成需依托以芯粒技术为代表的2.5D/3D集成技术,将集成维度从“面密度”拓展至“体密度” [6] 芯粒技术发展 - 芯粒技术是融合架构设计、互联设计、存储封装、电源散热及先进光刻的综合技术体系 [6] - 为推进自主生态建设,牵头组建“中国中关村高性能芯片互联技术联盟”,已制定12项团体标准、牵头编制5项国家标准 [6] - 依托国家重大项目建设“北京芯力技术创新中心”,打造芯粒技术一站式服务平台,目前该平台已完成通线并初步具备小批量量产能力 [6] 晶圆级芯片技术路线 - 国际上存在两类典型晶圆级芯片技术路线:Cerebras WSE采用的曝光厂拼接技术,以及Tesla Dojo采用的完好晶粒结合有机基板重塑晶圆路线 [7] - 学院团队提出“硅基基板 + 完好晶粒”技术路线,经测试能支撑芯片算力达到3-15 PFlops@FP8,性能超过4纳米工艺的英伟达GB200 GPU [7] 存算一体与忆阻器技术 - 忆阻器采用“两电极 + 中间氧化层组变层”结构,通过施加电源脉冲调节电导可实现多比特非易失存储,单个忆阻器可同时承担多比特乘法器、加法器与存储单元的功能 [9] - 相比传统数字电路,忆阻器的能效比CPU、GPU提升一个数量级,且在擦写速度、耐久性、多比特存储能力及成本方面优于闪存、MRAM、PCM等其他非易失存储器 [9] - 忆阻器存算一体技术从器件材料优化、交叉阵列功能演示,发展到2018年后与CMOS电路集成打造原型芯片,呈现指数级发展趋势 [9] 忆阻器工艺突破 - 团队与中芯国际合作研发出覆盖55纳米、40纳米、28纳米、22纳米至12纳米多个节点的忆阻器集成工艺,具备良好的工艺迁移能力 [10] - 忆阻器集成规模达上百兆,良率可达4个9至6个9,实现4比特编程,40纳米、28纳米节点的存储产品已实现一定规模量产,工艺水平进入国际第一梯队 [10][12] 忆阻器核心创新方案 - 为提升计算精度,研发“混合训练架构”,研制出国际首款多阵列忆阻器存算一体系统,成功演示多层卷积神经网络计算,能效达110+ TOPS/W [12] - 为实现片上训练,提出“Stellar片上学习框架”,研制出国际首款全系统集成的支持片上高效学习的忆阻器双算力芯片,在相同任务下能耗比先进工艺数字芯片低1-2个数量级 [12] 产业化进展 - 忆阻器存储技术已相对成熟,台积电也在推进12纳米及更先进节点的忆阻器存储工艺研发 [15] - 团队孵化的企业已实现1-16MB典型规格忆阻器存储产品的量产 [15] - 孵化“北京亿元科技”初创公司,推出面向科研的存算一体硬件平台,并联合咪咕、字节跳动研发存算一体计算加速卡,在内容推荐场景开展探索性应用 [15] 未来发展方向 - 实现高算力芯片突破需依托多层次协同创新:引入存算一体新计算范式,并推动其与进程计算、主流计算架构的融合 [15] - 通过芯粒堆叠、单片三维集成等技术构建异构集成层次化芯片,突破单芯片面积限制 [15] - 团队正关注硅光、光电子融合等技术,计划引入光模块加速数据传输,丰富高效芯片的技术探索路径 [15]
清华大学集成电路学院副院长唐建石:高算力芯片,如何突破瓶颈?
新浪财经·2025-10-03 15:16