Workflow
LLM脑损伤假说
icon
搜索文档
垃圾刷多了AI也会变蠢,“年度最令人不安的论文”
36氪· 2025-11-17 08:36
你知道有个全球年度词汇叫"脑损伤"(Brain Rot)吗? 特指那些因人长期接触碎片化、低价值网络信息而逐渐变得记忆紊乱、注意力下降的情况(俗称碎片化垃圾信息刷多了)。在2024年,这个词一度被选为 牛津年度词汇。 然鹅!最新研究结论显示,AI也一样。大模型灌多了垃圾内容也会变蠢降智脑损伤,而且后面变不回来了。 模型长上下文记忆下降了30%; 模型性格测试显示,其自恋和精神病态的现象激增。 更可怕的是,即使后来又在干净、高质量的数据上进行重新训练,这些已经造成的损伤,无法完全修复。 就在最近,几个AI研究者找来了几个月的高流行但低价值的Twitter数据(现),统统"喂"给大模型后发现: 模型推理能力下降了23%; 好嘛,本来以为只是简单的"输入坏数据→输出坏数据"(种瓜得瓜也不难理解),结果你告诉我一次错误就会造成永久性的认知漂移。(os:AI貌似比人 类更惨?) 细思极恐,"这可能是2025年最令人不安的AI论文了"。 以及诸多讨论之中,"垃圾进垃圾出"这一计算机习语也再度被频频提及(doge),堪称"计算机第一性原理"了。 所以这个研究怎么进行的?又究竟说了什么? 提出并验证"LLM脑损伤假说" 概括 ...
短视频刷多了AI也会变蠢!“年度最令人不安的论文”
量子位· 2025-11-16 15:20
一水 发自 凹非寺 量子位 | 公众号 QbitAI 你知道有个全球年度词汇叫 "脑损伤" (Brain Rot)吗? 特指那些因人长期接触碎片化、低价值网络信息而逐渐变得记忆紊乱、注意力下降的情况 (俗称短视频刷多了) 。在2024年,这个词一度被 选为牛津年度词汇。 然鹅!最新研究结论显示,AI也一样。大模型灌多了垃圾内容也会变蠢降智脑损伤,而且后面变不回来了。 以及诸多讨论之中, "垃圾进垃圾出" 这一计算机习语也再度被频频提及(doge),堪称"计算机第一性原理"了。 模型推理能力下降了23%; 模型长上下文记忆下降了30%; 模型性格测试显示,其自恋和精神病态的现象激增。 所以这个研究怎么进行的?又究竟说了什么? 提出并验证"LLM脑损伤假说" 就在最近,几个AI研究者找来了几个月的高流行但低价值的Twitter数据 (现) ,统统"喂"给大模型后发现: 更可怕的是,即使后来又在干净、高质量的数据上进行重新训练,这些已经造成的损伤,无法完全修复。 好嘛,本来以为只是简单的"输入坏数据→输出坏数据" (种瓜得瓜也不难理解) ,结果你告诉我一次错误就会造成永久性的认知漂移。 (os:AI貌似比人类更惨? ...