Workflow
22年前的一篇报告,预言了今天的CPU
半导体行业观察·2025-06-25 09:56

计算机架构发展趋势 - 2003年迈克尔·J·弗林预测计算的未来将依赖简单、并行、确定性和领域特定性设计,而非复杂通用处理器 [1] - 二十年后,推测执行的漏洞(如2018年Spectre和Meltdown)验证了弗林对复杂架构的批评 [4] - 行业领导者(谷歌、NVIDIA、Meta)和新兴企业(如Simplex Micro)的设计理念已转向简洁性、确定性和专业化 [1][5] 推测执行的局限性与行业调整 - 推测执行带来性能提升的同时导致高功耗、验证困难及安全隐患 [4] - 英特尔Lunar Lake和Sierra Forest核心转向效率优化,苹果M系列芯片强调可预测延迟,Arm Cortex-M放弃推测逻辑以满足实时性需求 [5] - RISC-V生态系统推动无推测设计,Simplex Micro等公司采用确定性执行模型 [6] 人工智能加速器与弗林愿景的契合 - 谷歌TPU、Cerebras晶圆级引擎、Groq数据流处理器均摒弃推测执行,采用大规模并行确定性计算 [9][10] - 谷歌TPU通过脉动阵列实现高吞吐量和确定性延迟,Cerebras通过无缓存设计优化数据局部性 [9] - Meta MTIA芯片针对推荐系统优化,体现领域特定架构(DSA)理念 [10] 领域特定架构(DSA)的兴起 - 弗林预测计算将分裂为针对不同任务的定制化架构(如服务器、AI、嵌入式系统) [12] - 现代硬件生态涵盖AI处理器(TPU)、网络加速器(SmartNIC)、安全微控制器(汽车RISC-V)等DSA [17] - GPU演化成针对机器学习的DSA,集成张量核心和低精度流水线 [13] 行业现状与未来方向 - 数据流架构、显式调度和确定性流水线成为主流,符合弗林对简洁性和可扩展性的主张 [15] - 在AI推理、汽车安全和边缘计算领域,安全性、能效和实时可靠性需求推动后推测计算发展 [15] - 弗林的理念已渗透至TPU、RISC-V等架构设计,但较少被明确提及 [15]