《大脑传》(The Idea of the Brain)
搜索文档
对话马修·科布:我们并不了解大脑 人类不该盲信人工智能
新浪财经· 2025-11-05 18:10
文章核心观点 - 人类至今仍不了解大脑的运作机制,即使是对仅有约一万个神经元的果蝇幼虫的简单行为也无法完全理解,而人类大脑拥有约八百亿个神经元[6][8] - 大脑研究的历史是一部“隐喻的演化史”,人们一直用当代最先进的技术(如液压系统、电报网络、计算机)来比喻和理解大脑,但这种机械隐喻存在局限性[5] - 人工智能是强大的预测文本工具,能在特定规则明确的领域(如下棋、设计抗生素、识别蛋白质结构)表现出色,但无法产生人类意识或真正理解世界[8][9] - 对“超级智能”的出现持怀疑态度,认为通过扩大模型规模创造与人类思维相同的人工智能是错误的,意识不会从计算机中自发产生[9] - 人类不应盲目信任人工智能,尤其是在没有人工复核的情况下让其做重要决策(如雇佣、投资)可能引发类似自动化交易系统导致的金融灾难[12] 神经科学史与大脑理解 - 17世纪笛卡尔将神经比作液压系统,受巴黎花园喷水机械雕像的启发[5] - 电报发明后,大脑被比作通讯系统,计算机出现后又被视为信息处理机器[5] - 神经科学家对“思维方式被当代科技框定且可随技术改变”的观点感到兴奋[5] - 编辑难以接受《大脑传》的核心答案是“我们不知道大脑如何工作”,因其他脑科学书籍通常提供某种解释[7] 人工智能的局限性 - 当前语言模型的原理是寻找相似性,本质是强大的预测文本工具,类似手机输入预测但规模更大[8] - AI系统吞噬海量数据(包括《大脑传》内容)进行训练,美国已有针对其训练数据版权的诉讼[9] - 通用模型(如ChatGPT)在面对简单问题(如“8的平方根是多少”)时表现出谦卑顺从,但可能编造不存在的参考文献[10][11][12] - 学生依赖AI完成作业、律师引用AI生成虚假证据的案例显示盲目信任AI的危险性[12] 人类与机器的关系 - AI是否会替人类决策取决于使用方式,专用模型在明确规则下可靠,但通用模型需谨慎对待[10] - 历史上股市崩盘与自动化交易系统在设定规则下“失控”有关,提示不应让机器取代人类判断[12] - 关键在人类是否允许机器自主决策,必须避免让AI在没有人工复核下决定雇佣、投资等重要事务[12]
对话马修·科布:我们并不了解大脑 人类不该盲信人工智能
新浪财经· 2025-11-05 09:08
文章核心观点 - 神经科学家马修·科布认为人类至今仍不了解大脑的运作机制,并指出历史上对大脑的理解深受同时代主流技术隐喻的影响[6][4] - 对人工智能持怀疑态度,认为其是强大的专用工具但无法产生人类意识,并警告人类不应盲目信任AI,尤其是在缺乏人工复核的关键决策领域[8][10][12] 神经科学史与大脑理解 - 人类对大脑的理解史是一部“隐喻的演化史”,从17世纪笛卡尔的液压系统比喻,到电报时代的通讯系统比喻,再到计算机时代的信息处理机器比喻[4] - 科学家们的思维方式被当代科技所框定,而这种框定会随着技术与社会变迁而改变[5] - 人类大脑有约八百亿个神经元,而即使是只有一万个神经元的果蝇幼虫,其简单行为也尚未被完全理解[8] 对人工智能的看法 - 人工智能属于出色的专用工具,其原理是基于海量数据的模式识别和预测,本质是强大的预测文本工具,但并不理解世界[8] - 通过不断扩大模型规模以创造与人类思维方式相同的“超级智能”的观点被指为荒谬且错误[9] - AI系统在规则明确的封闭系统中表现出色,如棋类游戏、设计新抗生素、识别蛋白质结构等[8] 人工智能的应用与风险 - 通用AI模型(如ChatGPT)可能生成虚假信息,例如编造不存在的参考文献,导致学生和专业人士误用[10][12] - 历史上自动化交易系统在设定规则下“失控”曾引发金融灾难,警示在雇佣、投资等关键决策中不能让AI取代人类判断[12] - AI是否会替人类作决策取决于人类如何使用它,关键在于不能盲目信任且必须保留人工复核[12]