文章核心观点 - 文章认为,当前关于量子计算的讨论过于聚焦于量子比特数量和处理器速度,而忽视了现代计算中数据存储、调度和访问(即“内存瓶颈”)对算力的决定性作用 [1] - 文章指出,量子计算不仅无法摆脱对经典内存的依赖,其自身在数据存储与调度方面面临比经典计算更严苛、更复杂的结构性约束,这从根本上限制了其算力潜力的兑现 [7][9] - 文章结论是,量子计算在体系结构上存在深刻矛盾,缺乏可扩展的存储基础,这使得其许多关于通用算力跃迁的宏大承诺在面对大数据任务时显得虚幻 [10] 算力本质与内存瓶颈 - 现代计算系统的性能瓶颈往往不在于中央处理器(CPU)的运算速度,而在于数据的存储、调度与访问,即“内存瓶颈” [3] - 算力需求增长的核心驱动力是所需处理的数据规模持续增长,而非单一数据的计算速度,在大语言模型等人工智能系统中尤为突出,其参数规模已达数百亿乃至上千亿量级 [5] - 算力是一种系统能力,取决于信息能否被稳定存储、快速调度并反复利用,脱离存储条件谈论算力是不切实际的空想 [6] - 现代计算机体系结构的核心进展体现在围绕“存储—计算协同”的工程创新,在大规模模型训练中,超过一半的时间与能耗消耗在与存储和通信相关的环节上 [5] 量子计算的结构性约束 - 量子比特不适合作为可扩展的存储设备,因为量子态天然易挥发,相干性会随时间衰减,误差会不断积累,“存得住”比“算得快”更难 [7] - 量子存储理论上受量子不可克隆性限制,无法像经典内存那样复制数据;工程上,量子纠错需要大量物理量子比特编码一个逻辑量子比特,构造“几十GB量级”的量子存储在可预见路径上不可行 [8] - 量子计算机的输入与输出仍是经典数据,必须依赖经典内存来组织与承载计算流程,因此经典内存必然成为其瓶颈 [8] - 量子处理器与经典内存之间的数据交换(“量子—经典边界”)在速度、带宽、接口、控制和测量层面比经典系统更复杂,可能成为性能瓶颈中的瓶颈 [8] 量子计算的算力上限分析 - 即使量子处理器的运算速度趋于无限,由于大规模计算任务中超过一半的时间与能耗发生在数据移动与存储环节,系统总耗时中与内存相关的那部分无法被压缩 [9] - 因此,量子计算机的总耗时理论上不可能小于经典计算机的一半以下,对于绝大多数实际应用,其整体算力在理论上不可能比经典计算机高出一倍以上 [9] - 量子计算的关键挑战在于它必须依赖经典内存,而量子比特自身又难以成为可扩展且长期保真的存储体系,这一结构性矛盾使其宏大承诺在可预见的技术路径上值得高度审慎看待 [9]
心智观察所|量子计算的瓶颈:处理器再快,也必须等待数据
观察者网·2026-01-31 09:15