人工智能的起源与图灵测试 - "人工智能"一词于1956年达特茅斯学院研讨会正式提出,但学术奠基可追溯至图灵1950年提出的"图灵测试"[1] - 图灵测试通过人机对话判断机器是否具备人类思考能力,核心设计为黑箱隔离测试环境,仅评估输入输出结果[3][5] - 测试标准存在主观性缺陷:33%人类应答率即被视为通过(2014年Eugene Goostman案例),但未形成科学共识[7] 人工智能的科学性争议 - 图灵论文存在科学规范问题:将神经细胞与计算机部件速度类比(声称计算机快1000倍)缺乏实证依据[8][9] - 行业普遍存在非科学方法论:欧盟"蓝脑计划"(2005-2016)因脑模拟假设不成立而失败,耗资超10年研发周期[12][13] - 术语滥用现象突出:"摩尔定律"(非科学定律)、"尺度定律"(参数规模决定性能)等概念被包装为科学原理[15][16] 技术发展现状与挑战 - 当前AI仍属"现代工匠技艺":依赖暴力计算(参数规模达万亿级)而非科学理论驱动,但应用范围持续扩展[19][20] - 关键瓶颈在于认知科学:人类自我意识机制未解(如神经元工作原理),导致类脑计算缺乏可靠理论基础[11][12] - 商业化加速概念炒作:"涌现"等术语被滥用为技术突破的伪科学解释,资本推动夸大宣传[17][18] 行业方法论批判 - 德雷弗斯1965年报告指出:AI发展类似炼金术,需建立化学级基础理论而非表面突破[18][19] - 学术研究存在三大误区:将想象类比作为论证依据(如脑模拟)、虚构概念包装(如数据科学)、混淆技术表现与智能本质[10][16][17] - 技术有效性不依赖科学理论:AI在图像识别等领域准确率超95%,但底层仍无统一智能理论框架[20][21]
人工智能至今仍不是现代科学,人们却热衷用四种做法来粉饰它
观察者网·2025-05-21 08:09