仅需一个混频器的无线射频机器学习推理,登上Science Advances!
机器之心·2026-01-16 08:42

文章核心观点 - 提出了一种名为“分离式计算”或“射频域物理计算”的全新机器学习推理范式,通过在射频域利用混频器进行模拟计算,将模型以无线信号广播,边缘设备无需存储模型或进行复杂数字计算即可完成推理,从而在保护隐私的同时,大幅降低带宽消耗、边缘设备算力需求及系统能耗 [8][11][29] 模型-数据的分解式计算 - 传统边缘AI推理存在两种方案:一是上传输入数据至云端,消耗大量带宽且存在隐私风险;二是将模型下载至边缘设备,挑战边缘算力并带来存储读写开销 [5][6][7] - 提出的第三种方案是“广播模型并在射频上完成计算”,模型存储在云端并通过射频广播,用户将模型输入调制到射频上,所有计算在边缘设备的混频器中以模拟方式完成,直接输出模型结果 [8][11] 利用混频器进行矩阵向量乘 - 混频器本质是时域乘法器,通过将广播的模型信号与本地调制的模型输入信号相乘,其输出即为模型输出 [14] - 在数字信号处理中,时域乘法对应频域卷积,从而可将模型推理抽象为矩阵向量乘 y = Wx 并用卷积实现 [14] - 通过在发送前预调制无线信道的逆,确保边缘设备接收到的信号即为所需的模型权重矩阵 W [14] 在测试平台上的实验 - 实验在软件定义无线电测试平台上进行,使用 USRP X310 作为无线收发机,ZEM-4300+ 作为混频器 [17] - 使用 915 MHz 频率和 25 MHz 带宽无线广播模型 [18] - 对通用复数域的 4096 点向量内积进行精度测试,最高计算精度达到 5.5 bit,满足大部分机器学习推理需求 [19] 计算能耗分析 - 对于输入维度 N、输出维度 M 的矩阵向量乘,系统能耗主要来自数模转换器、模数转换器和解码器 [22][24] - 整个系统能耗为 O(M + kMN),均摊到单个乘累加操作上为 O(1/N + k),其中 k 远小于1,表明计算规模越大,单个操作能耗越低 [22] - 在实验平台上实现了最高 32,768 点的向量内积,能耗达到飞焦级,比传统数字计算的皮焦级低 2~3 个数量级 [23] 机器学习推理 - 在 MNIST 数据集上,使用单全连接层模型进行了演示 [27] - 对于三全连接层模型,传统数字计算精度为 98.1%,而该框架下精度达 95.7%,但能耗仅需 6.03 fJ/MAC,单次推理总计 6.42 fJ [27] - 在 AudioMNIST 语音识别数据集上,精度达到 97.2%,能耗进一步降至 2.8 fJ/MAC [28] 核心创新总结 - 模型无线广播,多终端同时推理:神经网络模型被编码为射频信号广播,覆盖范围内任意数量设备可同步完成推理,实现“计算即广播” [29] - 无需改硬件,把“算力”直接搬进无线射频:利用边缘设备已有的射频混频器完成乘加运算,无需专用AI芯片或电路改动,实现“零额外能耗”的模拟计算 [30] - 单个射频器件即可支持规模化维度的神经网络计算:通过频域编码,单个混频器可完成高达 32,768 维的内积运算,突破了传统模拟计算的规模限制 [31]