Dropout
搜索文档
刚刚,Geoffrey Hinton成为第二位引用量破百万的科学家
机器之心· 2026-01-16 09:55
行业里程碑:Geoffrey Hinton的学术影响力 - Geoffrey Hinton的Google Scholar引用量突破100万,成为历史上第二位达到此成就的计算机科学家[1] - 其引用量仍在以惊人速度增长,自2021年以来新增引用量达534,241次,总h-index为192[2] - 在此之前,只有另一位“深度学习教父”Yoshua Bengio达成了百万引用成就[2] 核心学术成就与关键论文 - 2012年发表的论文《ImageNet classification with deep convolutional neural networks》引用量最高,已超过188,837次,标志着深度学习时代的正式开启[2][21] - 2015年发表于Nature的综述论文《Deep learning》引用量达107,646次,是Hinton引用量第二高的论文,系统总结了深度学习的发展历程与应用[2][16] - 其他高引著作包括《Visualizing data using t-SNE》(引用63,932次)、《Learning internal representations by error-propagation》(引用61,439次)和《Dropout: a simple way to prevent neural networks from overfitting》(引用60,895次)[2] 对人工智能领域的奠基性贡献 - 与David Rumelhart和Ronald Williams共同推广了反向传播算法,解决了多层神经网络的训练难题[10] - 提出了玻尔兹曼机、受限玻尔兹曼机、深度信念网络等,为无监督学习和特征表示学习奠定了基础[14] - 发明了Dropout正则化技术、t-SNE可视化方法、层归一化、知识蒸馏、胶囊网络、混合专家模型等多种关键技术[14] - 2022年提出了Forward-Forward Algorithm,作为对反向传播生物学合理性的反思与挑战[14] 荣誉与认可 - 2018年与Yoshua Bengio和Yann LeCun共同获得计算机领域最高荣誉图灵奖,三人被称为“深度学习三巨头”[13] - 2024年与John Hopfield共同获得诺贝尔物理学奖,以表彰他们“实现了利用人工神经网络进行机器学习的奠基性发现和发明”[18] 关键合作者与门生:Alex Krizhevsky与Ilya Sutskever - Alex Krizhevsky是AlexNet论文的第一作者和主要构建者,他编写的CUDA代码让神经网络在GPU上高效训练,在2012年ImageNet挑战赛中以10.8%的绝对优势夺冠[25] - Ilya Sutskever是AlexNet论文的第二作者,后作为联合创始人兼首席科学家创办了OpenAI,是ChatGPT和GPT-4诞生的关键人物[28] - 两人均师从Hinton,Alex Krizhevsky目前可能处于半退休状态,而Ilya Sutskever于2024年成立了专注于AI安全的公司Safe Superintelligence Inc. (SSI),并为其筹集了10亿美元资金[26][28] 行业影响与思想演变 - AlexNet在ImageNet竞赛中的成功被公认为深度学习时代的“大爆炸”时刻,证明了深层卷积神经网络在海量数据和GPU算力下的统治力[14] - Hinton晚年从谷歌离职,以更自由地谈论AI风险,他担忧数字智能可能演变成比人类更优越的智能形式并对人类构成生存威胁[20] - Ilya Sutskever对AI安全的关注日益加深,曾主导OpenAI董事会罢免Sam Altman,其新公司SSI宣称“第一个产品将是安全的超级智能”[28]
AI教父Geoffrey Hinton,全球第二个百万引用科学家
36氪· 2026-01-16 09:28
学术成就里程碑 - AI领域先驱、图灵奖得主Geoffrey Hinton的论文总被引次数正式突破100万次,成为全球第二位达成此成就的学者[1][3] - 首位达成百万被引的学者是Yoshua Bengio,其被引次数已达到103.6万次[7][10] - 图灵奖三巨头中的另一位Yann LeCun,论文被引次数也达到了44.6万次[14][16] 核心高被引论文分析 - **AlexNet (2012)**: 被引18.9万次,该研究通过深度卷积神经网络在ImageNet竞赛中取得突破性胜利,Top-5错误率仅15.3%,远低于第二名的26.2%,标志着深度学习复兴的开端[18][32][34] - **Deep Learning综述 (2015)**: 被引10.8万次,由Hinton、Bengio和LeCun合著,系统性地阐述了深度学习的原理、架构(如CNN、RNN)和潜力,成为该领域的奠基性文献[20][36][38] - **t-SNE可视化方法 (2008)**: 被引6.4万次,解决了高维数据降维可视化的难题,成为科研和数据分析中的标准工具[21][39][41] - **Dropout正则化技术 (2014)**: 被引约6.1万次,通过随机失活神经元来防止过拟合,成为训练深度神经网络的基础技巧之一[24][46][47] 学术贡献与行业影响 - Hinton的早期研究,包括反向传播、深度信念网络等,为现代深度学习算法奠定了基础,其工作直接支撑了ChatGPT、Gemini等大模型的运行[24][27] - AlexNet的成功证明了“数据+GPU+端到端训练”范式的有效性,推动了计算机视觉从手工特征工程向端到端学习的转变,并促进了GPU加速和大规模数据集在AI研究中的广泛应用[18][34][35] - Hinton因其在人工神经网络方面的基础性贡献,于2018年与Bengio、LeCun共同获得图灵奖,并于2024年与John Hopfield共同获得诺贝尔物理学奖[28][30] 学术背景与坚持 - Hinton出身学术世家,其曾曾祖父乔治·布尔创立了布尔代数[25] - 在神经网络研究被视为“死胡同”的AI寒冬期,Hinton坚持研究,并于1987年加入多伦多大学,建立了神经计算与自适应感知实验室,培养了大量AI人才[27] - 他自2013年起兼任谷歌脑副总裁,推动了深度学习在工业界的落地应用[27]
被拒≠失败!这些高影响力论文都被顶会拒收过
机器之心· 2025-12-11 10:47
Waymo的AI战略与知识蒸馏 - Waymo近期发布深度博客,详细阐述了其以Waymo基础模型为核心的AI战略[1] - 谷歌首席科学家Jeff Dean在社交媒体上重点介绍了Waymo使用的知识蒸馏方法,该方法借鉴了创建Gemini Flash模型的经验,旨在基于更大模型创建可机载运行的高计算效率模型[1] - 知识蒸馏技术由Geoffrey Hinton、Oriol Vinyals和Jeff Dean在2014年提出,其论文虽被NeurIPS 2014以“不太可能产生重大影响”为由拒稿,但如今已成为模型压缩和大模型落地的标配方法,论文引用量超过28,000次[3][4][29] 被顶级会议拒稿但影响深远的AI技术 - **LSTM**:由Sepp Hochreiter和Jürgen Schmidhuber提出,在1996年被NIPS拒稿,拒稿理由包括参数过多、过于复杂且缺乏生物学合理性,如今引用量达139,707次,并在2010年代后于语音识别和机器翻译中展现出统治级表现[8][13] - **SIFT算法**:由David Lowe提出,在1997年和1998年先后被ICCV和CVPR拒稿,理由是被认为“过于繁琐”、“不够优雅”,最终以Poster形式发表,曾统治计算机视觉领域长达15年,如今引用量达27,389次[11][14] - **Dropout**:由Geoffrey Hinton团队提出,在2012年投稿NIPS时被拒,评审认为其核心思想过于激进且缺乏数理逻辑,但该技术迅速成为AlexNet夺冠ImageNet的关键,如今引用量达60,231次[17] - **Word2Vec**:由Tomas Mikolov等人提出,在首届ICLR会议上收到“Strong Reject”评价,评审认为其“比较不科学”、“定义模糊”,但通过开源代码迅速成为NLP领域基石,并于2023年获NeurIPS“时间检验奖”,如今引用量达50,855次[19][20] - **YOLO**:由Joseph Redmon等人提出,在2015年被ICCV拒稿,评审因其定位精度不如R-CNN系列而拒绝,但忽视了其实现45 FPS实时检测的速度优势,如今YOLO系列已迭代至v13,成为工业界最受欢迎的检测框架,引用量达69,782次[27][28][30] - **RoBERTa**:由Meta AI研究人员提出,在投稿ICLR 2020时被拒,评审认为其新颖性和技术贡献有限,只是“仔细调参”和“使用更多数据”,但该模型超越了原始BERT,成为后续NLP研究的标准基线,如今引用量达23,479次[32] - **Mamba**:由Albert Gu和Tri Dao提出,在ICLR 2024评审中折戟,评审理由包括与其前作S4相比增量不足、未全面超越Transformer等,但该架构在社区引发热烈讨论,基于其的变体大量涌现,成为2024年最具影响力的架构创新之一,如今引用量达6,799次[35][36][37] 科研评价体系的局限与反思 - 顶会评审系统在面对颠覆性创新时存在系统性认知滞后,表现为“简单性陷阱”,即倾向于将数学复杂性等同于研究贡献,从而质疑如Dropout或Word2Vec等简单有效的方法[40] - 评审作为旧范式的维护者,存在“范式惯性”,当YOLO或Deep Image Prior等新思想出现时,旧范式的标准会成为阻碍新思想的壁垒[40] - 在深度学习领域,过度要求理论证明的“严谨性的暴政”可能会扼杀具有巨大实用价值的工程突破,例如Adam优化器初期面临的收敛性质疑[40] - 同行评审虽然是科学共同体的基石,但难以摆脱人类认知的局限性,它善于识别错误,却往往拙于鉴别天才,真正决定研究生命力的是其是否解决问题以及在时间长河中的回响[41][45]