Workflow
符号语言学模型
icon
搜索文档
GPT在模仿人类?Nature发现:大脑才是最早的Transformer
36氪· 2025-12-11 18:48
【导读】我们以为语言是语法、规则、结构。但最新的Nature研究却撕开了这层幻觉。GPT的层级结构与竟与人大脑里的「时间印记」一模一样。当浅 层、中层、深层在脑中依次点亮,我们第一次看见:理解语言,也许从来不是解析,而是预测。 我们一直深信,人类的大脑,是靠着一套严谨的规则、语法和结构分析来理解语言的,复杂且独一无二。 这是一个持续了数十年的「共识」。 可最近Nature Communications上发表的一项颠覆性研究,把这个古老的信仰掀了个底朝天。 论文地址:https://www.nature.com/articles/s41467-025-65518-0 研究者们让受试者听30分钟的故事,同时用毫秒级的脑电技术,精准捕捉大脑对每个词语的反应。 接着,他们将同样的故事文本输入给大语言模型,比如GPT-2和Llama-2,提取模型每一层对文本的内部理解表示 令人震惊的实验结果出现了: GPT那看似冰冷的层级结构,竟然在人类的大脑里,找到了完美的时间对应关系。 过去,我们总以为是GPT在模仿人类。但这个实验却给出了一个石破天惊的暗示: 或许,我们的大脑,天然就长成了「GPT」的样子。 GPT的结构,能在大 ...