量子计算的瓶颈:处理器再快,也必须等待数据
观察者网·2026-01-22 08:46

文章核心观点 - 文章核心观点在于挑战当前量子计算叙事中过度强调处理器速度(量子比特数量)的倾向,并指出算力的本质是一种系统能力,其瓶颈往往在于数据存储、调度与访问,而非单纯的运算速度[1] 文章认为,量子计算面临的根本挑战在于其体系结构存在深刻矛盾:它既无法摆脱对经典内存的依赖,又难以建立可扩展的量子存储体系,这导致其在应对大数据计算任务时,关于“通用算力跃迁”的承诺可能难以实现[10] 算力本质与内存瓶颈 - 现代计算系统的性能瓶颈往往并非来自中央处理器(CPU)的运算速度,而是来自数据的存储、调度与访问,即“内存瓶颈”[3] - 现代计算对算力的巨大需求源于所需处理的数据规模持续增长,其难点在于“如何处理不断增长的数据量”,而非“如何算得更快”[5] 当前主流人工智能模型的参数规模已达数百亿乃至上千亿量级,其挑战主要在于庞大参数与中间状态的有效存放、调动与访问[5] - 算力是一种系统能力,取决于信息能否被稳定存储、快速调度并反复利用[6] 在大规模模型训练的工程实践中,超过一半的时间与能耗消耗在参数与激活值的读写、数据搬运及跨节点同步等与存储和通信相关的环节上,而非算术运算本身[6] 量子计算的结构性约束 - 量子处理器门操作速度的提升不能自动转化为可持续的算力增长,量子计算在数据存储与调度层面面临比经典计算更严苛的结构性约束[7] - 量子比特不适合作为可扩展的存储设备,因为量子态天然易挥发,相干性会随时间衰减,误差会不断积累,“存得住”往往比“算得快”更难[7] - 量子存储理论上受限于量子不可克隆性,无法像经典内存那样进行复制、读写与缓存;工程上,量子纠错需要大量物理量子比特编码一个逻辑量子比特,导致构造“几十GB量级”的量子存储在可预见的技术路径上不可行[8] - 量子计算机的输入与输出仍是经典数据,必须依赖经典内存来组织与承载计算流程,因此经典内存必然成为其瓶颈[8] 量子处理器与经典内存之间的数据交换接口复杂,可能成为制约整体性能的“瓶颈中的瓶颈”[8] 量子计算的算力上限分析 - 即使量子处理器的运算速度趋于无限,算术操作时间成本可忽略,量子计算的总体算力增长依然非常有限[9] 由于大规模计算任务中超过一半的时间与能耗发生在数据移动与存储环节,处理时间即使为零,系统总耗时中与内存相关的一半也降不下来[9] - 因此,对于绝大多数实际应用,量子计算机的整体算力在理论上不可能比经典计算机高出一倍以上[9] 量子计算的关键挑战在于它必须依赖经典内存,而量子比特自身又难以成为可扩展且长期保真的存储体系[9]

量子计算的瓶颈:处理器再快,也必须等待数据 - Reportify