中国科学院高精度光计算研究取得进展
环球网资讯·2026-01-11 12:13

文章核心观点 - 中国科学院半导体研究所团队提出了一种创新的端到端闭环光电混合计算架构,该架构通过硬件—算法协同设计,解决了传统光计算中训练与推理分离、信息熵劣化等问题,在低硬件精度下实现了接近传统高精度架构的推理准确度,并展现出极高的运算速率、计算密度和能效,为高性能计算提供了新方向 [1][2][3] 技术突破与架构创新 - 研究团队提出了一种基于相位像素阵列的可编程光学处理单元,并结合李雅普诺夫稳定性理论实现对其灵活编程 [2] - 团队构建了端到端闭环光电混合计算架构,通过硬件—算法协同设计,实现了训练与推理的全流程闭环优化,有效补偿信息熵损失 [2] - 该架构打破了光计算中计算精度与准确度之间的强耦合关系 [2] - 架构通过噪声自学习机制,实现了光学与电学参数的联合优化与自适应计算精度补偿 [2] 性能表现与实验结果 - 在采用4-bit光学处理单元时,该架构在MNIST手写数字识别任务上的推理准确率达到90.8%,接近8-bit传统计算架构90.9%的理论极限 [2] - 实验结果表明,光计算系统在低硬件精度情况下仍能实现高精度推理 [2] - 该光学处理单元支持30.67GBaud/s的运算速率,实现981.3GOPS的计算能力与3.97TOPS/mm²的计算密度 [3] - 理论分析表明,该结构可扩展至128×128规模,计算能力可达1005TOPS,计算密度为4.09TOPS/mm²,能效可达37.81fJ/MAC [3] 行业背景与应用潜力 - 在人工智能神经网络高速发展的背景下,大规模的矩阵运算与频繁的数据迭代给传统电子处理器带来了巨大压力 [1] - 传统光电混合计算受限于训练与推理环节分离、离线权重更新等问题,造成信息熵劣化、计算精度下降,导致推理准确度低 [1] - 该技术显示出在微波光子信号处理、光通信与神经形态人工智能等领域的应用潜力 [3]

中国科学院高精度光计算研究取得进展 - Reportify