Workflow
ASIC,大救星!
半导体行业观察·2025-07-20 12:06

计算危机与AI需求 - AI应用的快速扩展显著增加了对计算基础设施的需求,暴露了基础硬件范式中的关键限制[2] - 数据中心是AI操作的核心,2023年消耗约200太瓦时电力,预计2026年增至260太瓦时,占美国总电力需求约6%[3] - 前沿AI模型训练成本急剧上升,预计2027年最大规模训练运行成本将超过10亿美元[5] - 晶体管尺寸缩小到纳米级,摩尔定律和丹纳德定律正达到极限,导致更高功率密度和加热问题[5] 基于物理的ASIC解决方案 - 基于物理的ASIC直接利用物理动力学进行计算,而非强制实现理想化的数字抽象[1] - 通过放宽传统ASIC的无状态性、单向性、决定性和同步性约束,显著提升能源效率和计算吞吐量[1][12] - 传统ASIC中标量乘法需几十到几百个晶体管,而基于物理的ASIC仅需少量组件[14] - 基于物理的ASIC可加速AI应用如扩散模型、采样、优化和神经网络推理,以及材料和分子科学模拟[1] 性能优势与设计策略 - 基于物理的ASIC通过放宽设计约束可节省功率和能量成本[20] - 采用自上而下与自下而上相结合的设计策略,最大化应用算法与硬件结构之间的匹配[22][24] - 定义运行时间和能量消耗比率RT(ℓ)和RE(ℓ)作为性能指标,当任一比率大于1时认为算法在硬件上高效[27] - 阿姆达尔法则对使用ASIC所能获得的性能提升设定了限制,需考虑算法中可加速部分的比例[29] 应用领域 - 人工神经网络特别适合通过专用模拟硬件加速,因其对噪声具有极强抗性和重复操作特性[40][41] - 扩散模型与非平衡热力学有深刻联系,基于物理的ASIC可利用硅中自然发生的随机性高效运行[42] - 采样和优化问题可通过基于物理的ASIC更高效解决,如使用Ising机和热力学计算[43][44] - 科学模拟和模拟数据分析是基于物理的ASIC的直观应用,可加速材料发现和分子动力学模拟[45][46] 发展路线图 - 第一阶段需展示基于物理的ASIC在关键工作负载上优于传统CPU或GPU的性能[49] - 第二阶段需解决可扩展性问题,如采用基于tile的层级结构和可重构交互项设计[53][54] - 最终阶段需将基于物理的ASIC集成到异构系统中,并开发标准软件抽象如PyTorch和JAX支持[56][57] - 光学神经网络在执行标量乘法时能效比传统方法具有根本性优势,模拟Ising机能耗比CPU低1-2个数量级[51]