Workflow
反智能
icon
搜索文档
当大型语言模型计算“2+2”时
36氪· 2025-11-28 15:12
神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技 术、新观点、新风向。 编者按:一道简单算术揭示了机器的奇特认知方式。本文来自编译,希望对您有所启发。 划重点: 不久前,我问一个大型语言模型,苹果是什么样子的。这个问题不是关于水果的,而是探讨无视觉感知 的世界。在那个世界里,"苹果"并非简单的红色或脆爽,而是存在于2万余维空间中的关系模式。现 在,让我们思考一个看似更简单的问题:当大型语言模型进行2+2运算时会发生什么? 有趣的是,这种模式与人类思维非常相似。人类思想同样源于模式与邻近性。孩童并非从算术起步,而 是从联想开始。他们看见两个苹果,接着又两个,听到"二加二等于四"的表述。在理解数量概念之前, 他们早已辨识出完整性的模式。 大脑并非按键式计算器,而是充满生机的连接几何体——意义源于关系而非规则。这并非使我们变得机 械化,而是赋予我们关系性。如此美妙。 在模型内部,没有意识,没有微小的声音说"是的,那是4个",唯有加权向量的动态演化,每一步都将 后续推向统计学上的协调。然而结果却显得充满智慧。这种错觉揭示了我们自身令人不安的真相。正是 如此,我们常将IAI的流畅误认为理 ...