图灵测试
搜索文档
中文屋提出者逝世,曾当众“调戏”Hinton被记了半辈子
36氪· 2025-11-30 14:10
约翰·塞尔生平与影响 - 哲学家约翰·塞尔于2024年9月16日去世,享年93岁[1] - 塞尔于1932年生于美国丹佛,19岁获罗德奖学金转入牛津大学,师从约翰·奥斯汀,1959年加入加州大学伯克利分校并任教长达六十年[17][18][19] - 其以犀利直言著称,一生不断与主流理论对抗,与丹尼尔·丹尼特、德里达等人的争论是二十世纪后半叶哲学史上的标志性场景[20][21] - 2017年因多起性骚扰指控被伯克利撤销荣誉教授头衔,其命名的“塞尔中心”关闭,去世后主流媒体讣告报道姗姗来迟[27][28][29][30] “中文屋”思想实验 - 塞尔于1980年提出“中文屋”思想实验,被视为人工智能哲学史上的经典命题,与“图灵测试”并列[3] - 实验设想一个不懂中文的人凭借英语规则书处理中文问题,论证程序只能模仿智能的语法形式,无法获得真正的语义理解,从而反驳强人工智能主张[35][36][38] - 该实验质疑图灵测试的有效性,认为机器行为上的“智能”表现不等于真正理解,强调理解需要建立符号与对象间的语义联系[38][39][40] - 该思想实验影响持续至今,常被用来比喻GPT等大型语言模型只是在“模拟理解”而非“拥有理解”[41][42] 学术分歧与争议 - 塞尔在70年代一场电视录制中“戏耍”了年轻的杰弗里·辛顿,令后者耿耿于怀半个世纪,节目开场便打破不谈“中文屋”的约定并对辛顿进行哲学拷问[3][5][6][7][8][9] - 学术根源上,辛顿代表的连接主义主张心智是分布式网络,而塞尔将人工智能一概视为“符号操作系统”,未区分符号主义与连接主义,导致辩论框架不对称[12] - 在意识问题上,塞尔主张心智经验源自大脑功能,是神经放电的产物,否定模糊的“精神”概念[24][25] - 在与后现代主义者的对立中,塞尔坚称从一个角度看事物并不意味着看不到真实本身[26] 对“中文屋”的批评与AI“理解”的再思考 - 玛格丽特·博登指出争论焦点应从“是否理解”转向“理解如何生成”,即为了能够作出理解,机器必须能够做到哪些事情[44] - 约翰·麦卡锡批评塞尔混淆了执行计算的人的心理特质和被计算模拟的过程,认为“中文屋系统”作为一个整体可能理解中文,正如单个神经元不懂语言但大脑能懂[44] - 史蒂文·平克认为塞尔只是在讨论“理解”一词的用法,未触及可观测的科学问题[45] - 杰弗里·辛顿认为大型语言模型确实以模拟人类认知的方式“理解”语言,通过为单词分配特征并分析特征间的相互作用来实现,这是对大脑语言处理最接近的模拟[47][48] “中文屋”选择中文的原因 - 塞尔解释选择中文是因为它是一种他完全不会的语言,便于假定存在一个“理解中文”的程序[50] - 网友解释可能反映了西方文化刻板印象,英语谚语“It's all Chinese to me”意为“完全听不懂”[52] - 拉丁字母语言间有词形或语源可猜,而中文独立的文字系统彻底切断了这种可能,使“不可理解”更为彻底,增强了思想实验的隐喻张力[52]
中文屋提出者逝世,曾当众“调戏”Hinton被记了半辈子
量子位· 2025-11-30 13:09
约翰·塞尔的哲学遗产与人工智能哲学 - 约翰·塞尔于2024年9月16日去世,享年93岁,其提出的"中文屋"思想实验被视为人工智能哲学史上的经典命题,与图灵测试并列[1][3][4] - "中文屋"实验于1980年提出,核心观点是机器只能模拟智能的形式(语法层面),但无法真正理解语义,质疑强人工智能的可行性[49][52][54] - 该实验直接影响当代对GPT等大型语言模型的讨论,引发"模拟理解"与"生成理解"的争议,至今仍是AI哲学的核心议题[5][57][59] 中文屋思想实验的学术分歧 - 塞尔将人工智能一概视为"符号操作系统",未区分符号主义与连接主义,这与杰弗里·辛顿的并行分布式处理(PDP)理论形成直接对立[19][20][21] - 中文屋实验强调理解需依赖符号与对象的语义联系,而计算机仅操作形式符号,缺乏意义把握[52][55][56] - 反对者如约翰·麦卡锡认为塞尔混淆了执行计算的人与计算模拟的过程,指出系统整体可能具备理解能力,如同神经元不懂语言但大脑能理解[60][61] 塞尔与学术界的争议事件 - 20世纪70年代电视录制中,塞尔打破与辛顿的约定,公开讨论中文屋实验,导致辛顿称其为"极其痛苦的经历"[6][7][11][12] - 塞尔以犀利直言著称,曾评价哲学工作"像谋杀",并与丹尼特、德里达等学者激烈争论,形成哲学史标志性场景[34][35][38] - 2017年因性骚扰指控被加州大学伯克利分校撤销荣誉教授头衔,相关中心关闭,晚年争议影响其公众形象[41][42][46] 中文屋的隐喻选择与文化背景 - 塞尔选择中文作为实验语言,因其完全不懂中文,且中文独立的文字系统切断了与其他语言的词形关联,强化"可操作但不可理解"的隐喻[67][72][73] - 英语俗语"It's all Chinese to me"反映西方文化中对中文"难理解"的刻板印象,增强了实验的张力[69][70][71] - 实验设计看似随意,实则通过语言隔阂凸显语法与语义的分离,成为哲学史上最具影响力的思想实验之一[68][74] 当代AI技术对中文屋的回应 - 辛顿认为大型语言模型通过为单词分配特征并分析特征互动,实现了对人类认知的模拟,本质是一种理解形式[64][65] - 争论焦点从"机器能否理解"转向"理解如何生成",如玛格丽特·博登指出需关注"理解所需的条件",而非二元判断[59][60] - 费曼名言"What I cannot create, I do not understand"暗示通过构造与模拟可能重新定义理解,为AI发展提供新路径[66]
浙大房汉廷:“无AI 无上市” 中国如何走出自身“AI+”路径?
新浪证券· 2025-11-29 09:59
AI对资本市场的核心作用 - AI将成为资本市场发展的核心引擎,贯穿上市筛选、合规审核到全面投资决策等所有环节[1] - 未来资本市场将由AI公司和使用AI的公司共同组成,交易所及服务机构必须是AI使用者,“无AI无上市”[4][5] - AI将从“对话交互”进化到“决策行动”,目前人类决策在ChatGPT、DeepSeek等AI模型面前已显滞后性与粗糙性[1][10] AI解决传统资本市场痛点 - 解决信息处理效率问题:传统资本市场依赖人工与规则驱动,对非结构化高频数据处理困难[6] - 改善决策模式偏差:过去金融机构以经验驱动存在认知偏差,无法有效挖掘数据信息[6] - 克服监管滞后性:传统监管方式难以实现实时预警和主动合规,多为事后查办[6] - AI能自动起草、验证并审核披露文件,且“不会撒谎”,避免人类主观道德风险[7] AI在金融机构的应用价值 - 量化效益显著:传统准备一份资本市场表格需180小时,成本5万至100万美元,AI可节省90%时间并大幅降本[7] - AI作为投行券商“深度助手”而非“简单工具”,在某些方面可能成为投行代理人[7] - “AI投行+”模式通过自动化处理材料审核、数据核验等基础工作,在精准度上超越传统人力模式[8] AI监管生态变革 - 监管从“瞭望塔”变为“自动驾驶舱”,从事后监管走向早期介入和前期监管[9] - 香港证监会市场侦测模型在测试中发现二三十个早期盲点,体现监管价值[9] - 中关村科金公司与券商打造的证券业垂直大模型可实现多点检测,节省人力物力,提升精确度[9] - AI驱动合规大模型使金融机构从“被动接受监管”转向“主动合规”[9] 金融AI+未来发展方向 - 金融智能体从“对话式交互”进化为“决策式行动”,逐步承接更复杂金融任务[10] - AI多模态应用解决跨境监管协同问题,打破信息处理边界与地域限制[10] - 通过隐私计算技术实现“数据可用但不可见”,打通数据壁垒同时保护隐私[11] - 治理体系采取“边施工边建设”适中路径,不同于美国更开放模式或欧盟更谨慎态度[11] 中国AI产业发展优势 - 2024年中国AI核心产业规模突破7000亿元,年复合增长率超20%,预计2025年产业规模突破8000亿元[4] - AI应用层占比从2023年35%升至2025年52%,成为最大增长点[4] - 资本市场政策向AI倾斜,科创板、创业板、北交所IPO规则允许AI企业缩短持续经营时间要求从两年减至一年[4] - 中国以大量产业场景、消费场景为AI技术提供天然试验场,应用公司可通过场景反馈推动技术迭代[14][15] - DeepSeek从聚焦量化交易的AI应用企业成功实现从“技术应用”到“技术创造”的跨越[14]
马斯克将用最强Grok 5,挑战LOL最强战队T1
36氪· 2025-11-26 20:15
项目核心目标 - 马斯克旗下Grok 5项目计划在2026年挑战由Faker领衔的传奇人类《英雄联盟》战队T1 [2] - 该项目旨在通过游戏对决进行一场关于“感知”与“直觉”的终极图灵测试,其根本目标是推动具身智能发展,为特斯拉Optimus机器人等现实应用奠定基础 [3][33][34] 技术核心限制 - 采用纯视觉感知:Grok 5只能通过捕捉屏幕像素来理解游戏,每秒需解析240帧的混乱画面,从“读取代码”转变为“理解像素” [7][8][9] - 施加人类级反应延迟:将AI反应速度限制在约200毫秒的人类极限内,迫使AI依靠预判和博弈而非非人手速取胜 [11][14][15] 技术架构与能力 - Grok 5是一款多模态大型语言模型,据称将拥有6万亿参数 [17] - 其学习方式从传统强化学习的“试错”转变为“理解”:通过阅读游戏资料和观看数百万小时比赛视频来构建世界模型,并展示逻辑推理能力 [18][19] - 模型可能模拟人类大脑的“快慢系统”:慢系统负责宏观战略,快系统负责即时战术 [20][21][22] 选择《英雄联盟》作为测试平台的原因 - 游戏包含战争迷雾,是不完全信息博弈,要求AI像人类一样依靠直觉和心理博弈来填补信息空白 [25][27] - 游戏考验团队协作能力,五个AI智能体需在极短时间内达成共识并预测队友意图,这是对AI协同能力的重大测试 [28] 项目潜在意义与影响 - 游戏中的混乱团战是现实世界的完美隐喻,成功将意味着AI能仅凭视觉在动态复杂环境中做出决策 [33] - 该视觉-动作模型将直接应用于特斯拉Optimus人形机器人,是赋予机器人在非结构化现实世界中生存能力的关键一步 [33][34]
AI如何进行几何推理?北邮专家带学生探索人工智能的本质
新京报· 2025-10-21 20:11
人工智能的战略地位与发展现状 - 世界主要国家将人工智能作为目前最大的发展战略,力图在新一轮国际竞争中掌握主导权 [1] - 人工智能被视为一次新的工业革命,其特点是带来更低廉的生产成本,而非传统工业革命的产能转移 [2] - 当前世界人工智能研究中心呈现两极化格局,主要集中在美国和中国 [2] 人工智能的技术原理与能力 - 人工智能大模型具备强大的内容生成能力,例如创作出遣词精美、语义流畅的诗歌,足以混淆人类判断 [1] - 人工智能通过拼凑、统计模型等方法进行内容创作 [1] - 人工智能能够进行数学解题和几何证明,其原理是基于吴文俊将几何推理和数学证明引入人工智能的基础 [2] - 计算机进行几何证明的方式是模仿人类,从基本假设出发,通过快速推导得出最终结论,尽管可能缺乏技巧但速度极快 [2] 人工智能发展的理论基础与关键人物 - 艾伦·图灵提出的“图灵测试”为评判机器是否具有智能行为提供了首个可操作的标准 [2] - 诺姆·乔姆斯基的转换-生成语法理论为计算机理解自然语言结构提供了重要理论基础,对早期人工智能研究影响深远 [2] - 中国科学家吴文俊的贡献在于将几何推理和数学证明引入人工智能领域,为当前大模型的数学能力奠定基础 [2] 中国人工智能的发展目标 - 中国在《新一代人工智能发展规划》中提出,目标是到2030年成为世界主要的人工智能创新中心 [2]
OpenAI奥特曼认错:我天生不适合管理公司
量子位· 2025-10-09 15:03
公司核心战略 - OpenAI确立三大核心目标:成为个人AI订阅服务、构建大规模基础设施、最终实现对人类真正有用的AGI [4] - 公司战略已转变为垂直整合模式,认为为实现AGI使命必须比原先想象中做更多事情,并引用iPhone作为成功垂直整合案例 [8][9] - 在资源分配上,当存在资源限制时,GPU将优先分配给研究而非产品支持,基于构建AGI的终极目标研究享有最高优先权 [33][34] 技术发展路径与AGI展望 - Sora项目表面与AGI不直接相关,但公司认为构建真正出色的世界模型对AGI的重要性将超出人们想象 [11] - 推出Sora的理由包括:制作优秀产品获得用户喜爱、让社会提前适应视频模型、视频比文本有更多情感共鸣、帮助推进AGI研究以及增加乐趣和喜悦 [16] - 未来人机交互界面将包括实时渲染视频的世界模型和新型环境感知硬件设备 [19] - 个人认为图灵测试的等价物是AI能够进行科学研究,并预测两年内模型将承担更多科学工作并做出重要发现 [21][22] 基础设施与行业合作 - 公司决定进行非常激进的基础设施押注,因对研究路线图和经济价值从未如此自信,需要整个行业佼佼者的支持 [29] - 公司将与众多伙伴合作,涉及从电子级别到模型分发的所有环节,未来几个月预计有更多动作 [30] - 若对模型能力发展的预测正确,规模扩展的上限离当前位置还非常遥远,但若只有今天模型则不会如此激进 [31][32] 行业宏观观点 - 能源是AI最大的瓶颈之一,历史上更便宜充足的能源是提高人类生活质量最有影响力的事情 [44] - 批评西方长期排斥核能是令人难以置信的愚蠢决定,其推广速度取决于是否具有完全压倒性的经济优势 [44] - 认为AGI的到来是连续性的过程,而非奇点大爆炸 [44] - 深度学习是一个持续给予奇迹的技术,公司能够用当前技术制造出能够找出下一个突破的东西 [24][27]
奥特曼和量子计算奠基人讨论GPT-8
36氪· 2025-09-28 12:41
对话核心观点 - 奥特曼与戴维・多伊奇就AI能否发展为具备意识的超级智能展开讨论,奥特曼以假设的GPT-8为例,认为其若能解决量子引力问题并解释其思考过程,则应被视为具备高级智能 [1][14] - 戴维・多伊奇最初认为AI无法发展为超级智能,但被ChatGPT的对话能力所改变观点,并指出判断智能的关键在于能否提供“过程故事”,并最终认同奥特曼的GPT-8假设场景 [7][14] - 双方讨论凸显AGI定义标准模糊且目标不断变化,缺乏明确的衡量基准 [3][9][10] 奥特曼的观点 - 奥特曼高度评价戴维・多伊奇的著作《无穷的开始》,认为其乐观阐述了在AI世界中人类依然有无限价值与探索空间 [5] - 奥特曼认为AI有可能发展成具备意识的超级智能,并以GPT-8假设案例进行论证:若GPT-8能解决量子引力问题并讲述其思考过程,则应被认可 [1][14] 戴维・多伊奇的观点 - 戴维・多伊奇曾认为AI无法发展为超级智能,但ChatGPT的出现改变其观点,承认其在广泛主题下进行开放式对话的能力 [7][8] - 他强调现有AI系统缺乏“解释性创造力”,真正的通用智能需具备主动选择动机的能力,而非机械响应提示 [10][11] - 他指出图灵测试并非AGI基准,判断智能的关键在于能否提供如爱因斯坦发现相对论般的“过程故事” [9][13][14] 行业技术讨论 - 对话触及AGI衡量标准的核心难题,即缺乏测试基准来区分机器输出与真正的创造性智能 [9][10][12] - 戴维・多伊奇作为量子计算奠基人,其理论框架为量子计算机发展奠定数学基础,并证明量子算法的指数级加速效应 [15][17]
奥特曼和量子计算奠基人讨论GPT-8
量子位· 2025-09-28 11:39
核心观点 - 萨姆·奥特曼与戴维·多伊奇就“AI能否发展为具备意识的超级智能”展开对话,奥特曼以未来GPT-8可能解决量子引力问题并解释其思考过程为例,论证AI具备超级智能的可能性 [1][8][22] - 戴维·多伊奇最初认为AI无法发展为具备意识的超级智能,但被奥特曼的GPT-8假设说服,认为如果AI能提供解决复杂问题(如量子引力)的“过程故事”,则可被视为具备解释性创造力 [1][11][12][22] 奥特曼的观点 - 奥特曼极度乐观地认为,即使在AI世界里,人类依然永远不会缺少可以做的事、可以发挥价值的方式、可以解决的问题和可以探索的未知 [6] - 奥特曼认为AI有可能发展成具备意识的超级智能,并以GPT-8为例,假设其能搞懂量子引力并讲述如何做到,以此论证AI的超级智能潜力 [1][8][22] 戴维·多伊奇的观点 - 戴维·多伊奇最初认为AI不会发展成为具备意识的超级智能,并指出现有系统(如ChatGPT)的能力是知识的副产物,而非真正的AGI [11][12][13] - 多伊奇强调“解释性创造力”和“过程故事”是判断智能的关键,认为真正通用的智能需具备主动选择动机的能力,而非机械输出 [18][19][21] - 多伊奇被奥特曼的GPT-8假设说服,认为如果AI能提供类似爱因斯坦发现相对论那样的“过程故事”,则可被视为具备超级智能 [22] 对话背景与影响 - 对话围绕AGI定义标准模糊、目标不断变化展开,引发网友讨论,有人认为AGI无法衡量,目标已转向ASI(超级人工智能) [3] - 多伊奇是量子计算奠基人,曾提出量子图灵机理论框架和Deutsch-Jozsa算法,为量子计算机发展奠定数学基础 [23][24][26]
人工智能至今仍不是现代科学,人们却热衷用四种做法来粉饰它
观察者网· 2025-05-21 08:09
人工智能的起源与图灵测试 - "人工智能"一词于1956年达特茅斯学院研讨会正式提出,但学术奠基可追溯至图灵1950年提出的"图灵测试"[1] - 图灵测试通过人机对话判断机器是否具备人类思考能力,核心设计为黑箱隔离测试环境,仅评估输入输出结果[3][5] - 测试标准存在主观性缺陷:33%人类应答率即被视为通过(2014年Eugene Goostman案例),但未形成科学共识[7] 人工智能的科学性争议 - 图灵论文存在科学规范问题:将神经细胞与计算机部件速度类比(声称计算机快1000倍)缺乏实证依据[8][9] - 行业普遍存在非科学方法论:欧盟"蓝脑计划"(2005-2016)因脑模拟假设不成立而失败,耗资超10年研发周期[12][13] - 术语滥用现象突出:"摩尔定律"(非科学定律)、"尺度定律"(参数规模决定性能)等概念被包装为科学原理[15][16] 技术发展现状与挑战 - 当前AI仍属"现代工匠技艺":依赖暴力计算(参数规模达万亿级)而非科学理论驱动,但应用范围持续扩展[19][20] - 关键瓶颈在于认知科学:人类自我意识机制未解(如神经元工作原理),导致类脑计算缺乏可靠理论基础[11][12] - 商业化加速概念炒作:"涌现"等术语被滥用为技术突破的伪科学解释,资本推动夸大宣传[17][18] 行业方法论批判 - 德雷弗斯1965年报告指出:AI发展类似炼金术,需建立化学级基础理论而非表面突破[18][19] - 学术研究存在三大误区:将想象类比作为论证依据(如脑模拟)、虚构概念包装(如数据科学)、混淆技术表现与智能本质[10][16][17] - 技术有效性不依赖科学理论:AI在图像识别等领域准确率超95%,但底层仍无统一智能理论框架[20][21]
纳指彻底崩了5.9%,中概却红了
小熊跑的快· 2025-04-04 07:05
美股市场表现 - 美股整体暴跌,其中与进出口相关的硬件公司受影响最严重 [1] - 苹果股价下跌9.25%,台积电下跌7.63% [1] - 微软仅下跌2.3%,表现相对抗跌,可能因市场认为软件行业受影响较小 [1] - 亚马逊暴跌9%,可能因其电商业务受关税影响较大 [1] 中概股表现 - 中概股表现强劲,腾讯ADR上涨 [1] - 港股大跌的股票在美股市场反而上涨 [1] - A股成为全球唯一外资资金流入的市场 [2] 行业表现差异 - 硬件行业受冲击明显,软件行业相对抗跌 [1] - 微软的云基础设施采购可能来自墨西哥而非台湾,规避了高关税影响 [1] - 黄金市场表现疲软,与中概股形成鲜明对比 [2]