Workflow
AI绘制脑图
icon
搜索文档
人类画了100年的脑图,AI仅用几小时,还绘制出新脑区
36氪· 2026-02-11 07:25
算法技术突破 - 加州大学旧金山分校团队提出名为CellTransformer的机器学习算法,该算法采用编码器-解码器架构,利用Transformer的自注意力机制,让细胞像语言模型中的词一样进行“交流”,从而学习细胞间的空间结构和分子差异 [7] - 算法采用自监督训练方式,随机遮住一个细胞的基因表达信息,让模型根据其邻居细胞来预测该细胞原本的基因表达,通过重复数百万次进行学习 [7] - 该算法仅花费数小时便完成了对5只小鼠大脑、总计1040万个细胞的分类和空间组织建模工作,效率远超传统手工方法 [1][10] 应用效能与验证 - 在包含5只小鼠脑组织数据的ABC-WMB数据集上进行验证,其中一只小鼠使用包含500个基因的MERFISH panel处理并采集53个冠状切片,其余四只使用包含1129个基因的panel采集 [10] - 算法能够在小鼠大脑中定义25到1300个神经区域,并在完全不使用脑区标签的情况下,其输出与手绘的艾伦小鼠脑通用坐标框架(基于1675只小鼠数据绘制)高度吻合,准确对齐了已知的解剖和功能分区 [4][10] - 算法不仅识别出已知脑区(如海马体、上丘的感觉层和运动相关亚区),还绘制出了新的脑区,例如在纹状体(尾壳核)发现了网格状交错结构,在脑干的中脑网状核识别出4个具有丰富细胞类型的新脑区 [12][14][16][17] 算法扩展性与未来应用 - CellTransformer能够扩展到多动物样本,在另一个包含1个冠状切片和4个矢状切片的MERFISH数据集上训练的新模型,在所有5只动物中生成了一致的脑亚区,表明该方法能成功整合具有异质性测量结果的动物脑区 [19] - 研究团队认为该算法的最终应用目标是人类大脑,尽管人脑拥有约1700亿个细胞(小鼠大脑约1亿个),目前数据不足,但一旦获得足够数据,CellTransformer有望应对此挑战 [3][21] - 该算法同样有潜力应用于大脑之外的其他器官,例如肾脏和病理组织,通过提供详细细胞图谱来帮助科学研究,如判断健康与病变组织的差异 [21]