碳基智能
搜索文档
按参数算,我们1300克的人脑相当于多大的AI模型?
36氪· 2026-02-27 20:25
人脑与AI模型的规模与架构对比 - 若仅按神经元数量计算,人脑约860亿个神经元,相当于86B参数模型,远小于DeepSeek V3的671B参数和Kimi K2.5的约1000B参数 [1] - 若考虑每个神经元约7000个突触,人脑总参数可达860亿*7000,约600T,远超当前AI模型,且当前硬件无法运行如此规模的模型 [1][2] - 人脑是真正的三维立体结构,一个神经元能与上万个邻居连接,复杂度远超本质为2D平面堆叠的硅基芯片 [13][14][15] 人脑的“制程”与信息处理单元 - 以神经元细胞体直径(10-100微米)类比制程,人脑相当于几十年前的电子管计算机水平 [4][5] - 以神经元间突触间隙宽度(20-40纳米)类比,相当于台积电2012年的28nm工艺,约iPhone 5水准 [8][9] - 人脑最底层的电信号传递单元——离子通道蛋白直径仅0.3-0.5纳米,达到原子级别的0.3nm“工艺”,超越当前硅基芯片物理极限 [10][11][12] - 人脑突触传递连续、强弱可调且涉及化学反应,信息量层级高于仅有开/关(0/1)状态的晶体管 [16][17] 人脑与AI的能效对比 - 人脑总功耗约20瓦,且高强度思考时功耗仅比静息态高出约1瓦 [19][21] - 人脑思考5秒额外耗能约0.0014瓦时,而ChatGPT一次查询平均耗能约0.34瓦时,人脑能效领先两个数量级 [21][22][23] 人脑与AI的激活与工作模式 - DeepSeek V3的671B参数中,每次推理仅激活37B,约5%的参数工作,95%处于闲置 [25] - 人脑平均皮层神经元放电频率仅0.16Hz,且超过90%的神经元在任何给定时间都处于沉寂状态,同样采用稀疏激活模式 [26] - 人脑与先进大模型均采用混合专家模型架构 [26] 幻觉、创造力与记忆机制 - 大模型的“幻觉”被视为缺陷,而人脑的幻觉表现为梦、想象力和艺术创造力 [27][28][29][30] - 研究证明幻觉对于大语言模型不可避免,且与创造力是一体两面,此机制与人脑相似 [31][32][33] - 人脑工作记忆容量有限,约为7±2个组块,但长期存储容量巨大,仅大脑皮层突触存储容量估算约74TB [36][37][40][41] - 人脑通过海马体在睡眠时对记忆进行“蒸馏”和“极端有损压缩”,此压缩比远超任何RAG系统 [42][43][44][45][46] - DeepSeek的Engram架构将75%算力用于推理,25%用于记忆查找,模拟了人脑陈述性记忆直接读取与昂贵推理分开的运作方式 [49][50][51][52][53] 训练数据与学习效率 - GPT-4训练数据约13万亿token,DeepSeek V3为14.8万亿token [55] - 人类从出生到成年接触的语言输入仅约2亿词,比AI训练数据少五个数量级,显示人脑样本效率远超AI [56][57][58] - 人脑的高效源于进化预装的先验知识,而AI需从零开始学习 [63] 具身认知与智能的生物学基础 - 认知科学认为思维并非仅发生在大脑,身体也参与思考,例如理解“沉重”一词会激活运动皮层 [64] - 智能是否需要身体仍是未解问题,但人脑与生物学结构相辅相成,构成了碳基生命的独特体验 [64][68][69][70] AI的指数增长与递归自我改进潜力 - 人脑的物理配置(860亿神经元,600T突触参数,20瓦功耗)在数万年间基本保持静态,而AI模型参数从2020年GPT-3的175B增长至当前近万亿,呈指数提升 [79][80][81] - 若AI能效每两年提升10倍,当前领先人脑两个数量级的能效优势可能在4年内被追平,五个数量级的样本效率优势可能在10年内被追平 [82][83] - Google DeepMind的AlphaEvolve系统能用AI设计并优化AI算法,其发现的VAD-CFR和SHOR-PSRO算法击败了人类研究者十几年开发的最优算法,展现了“递归式自我改进”的潜力 [86]