AlexNet

搜索文档
AI变革将是未来十年的周期
虎嗅APP· 2025-10-21 07:58
以下文章来源于王智远 ,作者王智远 王智远 . 商业记录者,主持人、《复利思维》《自醒》图书作者;专注于市场营销、消费心理、AI新科技、精 神生活与商业探索。 本文来自微信公众号: 王智远 ,作者:王智远,原文标题:《Karpathy:十年、幽灵、智能体》, 题图来自:AI生成 昨天听了一个播客,来自 Karpathy。 Karpathy 是特斯拉自动驾驶团队的前负责人,最早跟随 OpenAI 创始团队的研究者之一。 在很多人眼里,Karpathy 代表当下最接近"AI 思维核心"的那类人;他主要提到两件事: 一,AI 变 革将是未来十年的周期;二,我们在造幽灵。 想想看,从 2012 年的 AlexNet 到 2022 年的 GPT,刚好十年。 深度学习在十年前解决了"机器怎么看"的问题,而大模型在今天解决"机器怎么想";中间隔着十年时 间,但也隔着一次完整的范式更替。 他说,这是 AI 的节奏。 他说,这像两把钥匙,一把打开"时间",一把打开"智能的本质"。 我一开始以为是夸张的说法,后来发现它有道理,毕竟,从外部看,AI 的变化几乎是爆发式的,一 年一个版本,几个月一个突破。 但 Karpathy 的解 ...
AI变革将是未来十年的周期
虎嗅· 2025-10-20 17:00
昨天听了一个播客,来自 Karpathy。 Karpathy 是特斯拉自动驾驶团队的前负责人,最早跟随 OpenAI 创始团队的研究者之一。 在很多人眼里,Karpathy 代表当下最接近"AI 思维核心"的那类人;他主要提到两件事:一,AI 变革将 是未来十年的周期;二,我们在造幽灵。 他说,这像两把钥匙,一把打开"时间",一把打开"智能的本质"。 我一开始以为是夸张的说法,后来发现它有道理,毕竟,从外部看,AI 的变化几乎是爆发式的,一年 一个版本,几个月一个突破。 但 Karpathy 的解释让我觉得,这个判断背后有一套非常清晰的逻辑。 一 他说,AI 发展是"演化式"的。技术像生命一样,是慢慢长出来的,每一轮大的突破,往往靠算力、算 法、数据和人才这四股力量,彼此纠缠、逐步成熟。 它不像互联网的流量驱动,也不像移动时代靠硬件换代,AI跨越,是底层学习机制的突变,前一次的 成果,变成下一次的养料。 Karpathy 还提了一个细节: AI 成长速度,被人类的理解速度所限制,算力可以加倍,算法可以优化,但人类对"智能"的定义,是 滞后的。 所以,每一次大的智能革命,必须留给人类十年时间去适应,这是技术周期 ...
趣图:大神就是大神,被冒犯不仅没破防,顺便还点了个赞
程序员的那些事· 2025-09-05 09:08
核心人物动态 - AI领域知名专家Ilya Sutskever作为OpenAI联合创始人于2024年5月离职[1] - 其技术贡献包括开发突破性AI模型AlexNet[1] - 离职后创立新企业 专注安全超级智能(SSI)领域研发[1] 社交媒体动态 - 2025年通过个人推特账号发布第二条推文引发关注[5] - 网友对其推文真实性提出质疑并表达怀念之情[6] - 推文评论区出现其与足球明星罗纳尔多的形象对比图[6] 品牌衍生现象 - 基于人物形象开发的周边产品包括定制鼠标和帽子[3] - 衍生品获得人物本人正面评价[3] - 网络社区出现墨西哥风格帽子的创意改图[8]
科学界论文高引第一人易主,Hinton、何恺明进总榜前五!
机器人圈· 2025-08-27 17:41
学术引用排名分析 - Yoshua Bengio总被引用量达973,655次 近五年引用量698,008次 位列全球科学家首位[1] - 其2014年发表的生成对抗网络论文引用量突破100,904次 2015年深度学习论文引用量达100,061次[1][2] - Geoffrey Hinton总被引用量超95万次 近五年引用量57万次 排名第二[3] - Hinton参与的AlexNet论文引用量达181,968次 为计算机视觉领域突破性研究[3][5] 跨学科引用表现 - 医学领域研究者Ahmedin Jemal总引用量924,788次 近五年引用量520,211次 排名第三[7] - 数学与生物学交叉领域研究者Eric Lander总引用量737,656次 近五年引用量247,907次 排名第四[7] - 何恺明总引用量735,881次 其2016年ResNet论文引用量达290,239次 排名第五[9] - ResNet被Nature评为21世纪被引量最多论文 引用范围在103,756-254,074次之间[9][10] 高影响力论文特征 - AlexNet论文引用量181,968次 推动深度学习在计算机视觉应用[3][5] - 生成对抗网络与深度学习论文引用量均超10万次 形成持续学术影响[1][2] - 全球科学家排名涵盖2,626,749名研究者 涉及221个学科领域[1] - Ilya Sutskever总引用量超67万次 单篇最高引用18万次 排名第七[10]
全球高被引第一人,图灵得主Bengio近百万屠榜,Hinton、何恺明冲进TOP 5
36氪· 2025-08-26 10:20
全球高被引科学家排名 - Yoshua Bengio以总引用量973,655次成为全球首位全领域最高被引科学家 其中近五年引用698,008次 占比71.7% [1][4][5] - Geoffrey Hinton以总引用952,643次位列全球第二 近五年引用577,970次 占比60.7% [8][9] - 何恺明以总引用733,529次排名全球第五 近五年引用617,328次 占比84.2% [13][14] - Ilya Sutskever以总引用67万次进入全球前十 近五年引用50万次 [16] 计算机领域顶尖学者表现 - 全球前十榜单中计算机科学家占四席 包括Bengio、Hinton、何恺明和Sutskever [7] - 何恺明研究的ResNets被Nature评为21世纪被引最高论文 其提出的Faster R-CNN和Mask R-CNN推动目标检测技术发展 [15][16] - Hinton团队开发的AlexNet在2012年ImageNet挑战赛夺冠 其反向传播算法成为神经网络训练基础 [10] 计算机学科细分排名 - 计算机领域前十包括Ross Girshick(总引用607,220次)、Andrew Zisserman(总引用477,577次)、Yann LeCun(总引用418,003次) [22][23] - Ian Goodfellow以总引用373,308次位列第八 近五年引用298,169次 占比79.9% [24] - Jeff Dean和Oriol Vinyals同样进入计算机学科前十 [22] 排名方法论 - AD Scientific Index覆盖262万名科学家和221个国家 采用H指数、i10指数和总引用量等多维指标 [26] - 评估兼顾职业生涯总影响和近五年活跃度 包含两个时间框架和六个核心指标 [29][31] - 数据实时更新并筛查学术不端行为 提供13个主要学科和221个细分学科对比 [29][30]
超97万:Yoshua Bengio成历史被引用最高学者,何恺明进总榜前五
机器之心· 2025-08-25 14:08
全球顶尖科学家学术影响力排名 - Yoshua Bengio成为全球被引用次数最多的科学家 总被引用量达973,655次 近五年引用量698,008次[1][3] - 排名基于AD Scientific Index平台 涵盖全球2,626,749名科学家 涉及221个国家地区24,576家机构[3] - Bengio的生成对抗网络论文引用量突破100,904次 深度学习论文引用量达100,061次[3] 人工智能领域核心研究者表现 - Geoffrey Hinton排名第二 总被引量952,643次 近五年引用577,970次 占比60.7%[4][6] - Hinton参与的AlexNet论文引用量高达182,853次 标志着深度学习在计算机视觉领域的突破[4][5] - 何恺明排名第五 总被引量735,881次 近五年引用619,578次 ResNet论文引用量达290,239次[8][10] - ResNet被Nature评为21世纪被引量最多论文 引用范围在103,756-254,074次之间[10][11] 跨学科高影响力研究者 - 医学领域Ahmedin Jemal排名第三 总被引量924,788次 近五年引用520,211次 占比56.3%[8] - 数学与生物学交叉领域Eric Lander排名第四 总被引量737,656次 近五年引用247,907次 占比33.6%[8] - Ilya Sutskever排名第七 总被引量671,834次 近五年引用504,890次 ImageNet论文引用量182,853次[11][14][15] 高影响力论文特征分析 - 顶级论文持续产生深远影响 如AlexNet(2012年)和ResNet(2016年)至今仍被广泛引用[5][10] - 计算机视觉领域论文占据主导地位 前10名中包括多篇图像识别和神经网络相关研究[10][11] - 生成对抗网络和注意力机制等基础架构论文引用量显著 如Attention Is All You Need引用范围56,201-150,832次[11][15]
全球市值第一 英伟达如何踏入AI计算芯片领域
天天基金网· 2025-08-12 19:24
英伟达市值与市场地位 - 英伟达在6月初超过微软成为全球市值最高的上市公司,7月初市值突破4万亿美元,成为首家达到这一里程碑的企业,股价触及164.32美元的历史最高点,目前股价已超过180美元 [2] - 市值飙升主要源于投资者对人工智能变革潜力的信心,以及合作伙伴OpenAI发布GPT-5的推动 [2] - 公司从游戏芯片制造商转型为加密挖矿芯片制造商,最终成为人工智能计算芯片领域的早期赢家 [2] 英伟达的AI转型关键人物与事件 - 布莱恩·卡坦扎罗(现任英伟达应用深度学习研究副总裁)在英特尔实习期间发现传统计算机架构的局限性,提出并行计算是人工智能的解决方案 [5] - 卡坦扎罗2011年加入英伟达,成为首位专职AI研究员,用12个GPU完成原本需要2000个CPU的“猫脸识别”实验 [5][6] - 他开发的cuDNN(深度学习加速库)最初被软件团队否定,但通过越级向CEO黄仁勋陈述后获得支持 [6][7] 黄仁勋的战略决策与公司转型 - 黄仁勋将cuDNN视为公司20年历史中最重要的项目,提出“OIALO”(Once In A Lifetime Opportunity) [8] - 基于第一性原则,黄仁勋推断神经网络将变革社会,并通过CUDA平台占据硬件市场 [8] - 英伟达在黄仁勋的决策下,仅用一个周末完成从图形芯片公司向AI芯片公司的转型 [8] 技术突破与行业影响 - 英伟达发现矩阵乘法适合并行处理,并在cuDNN开发中优先考虑速度而非精度,以适应大规模神经网络的需求 [9][10] - 2014年GTC大会上,黄仁勋首次公开英伟达与AI的结合,卡坦扎罗展示改良版AlexNet的实时犬种识别能力 [11] - 2016年谷歌AlphaGo的成功推动GPU需求,英伟达获得“麦克卡车项目”订单(4万个GPU,价值1.3亿美元),成为公司史上最大单笔订单 [11] AI与硬件协同发展的未来展望 - 深度学习是软件与硬件的双重革命,并行计算与神经网络的结合被视为未来重塑人类文明的关键 [12] - 英伟达的转型案例凸显了企业资产支出向AI领域转移的趋势 [2][12]
理想VLA实质是强化学习占主导的持续预测下一个action token
理想TOP2· 2025-08-11 17:35
核心观点 - 对predict the next token的不同理解反映了对LLM或AI潜力与实质的认知差异 [1] - 认为predict the next token超越统计学的人更倾向于认可LLM潜力大、推理过程是意识雏形、超级对齐重要 [1] - 理想VLA架构通过连续预测action token实现物理世界理解,类比OpenAI的O1O3 [1][10] - 辅助驾驶比chatbot更适合强化学习,因奖励函数更明确且仿真环境更简单 [12][13] Ilya的观点与背景 - Ilya是OpenAI前首席科学家,推动AlexNet、AlphaGo、TensorFlow等多项AI领域突破 [3] - 他认为predict the next token能超越人类表现,因足够聪明的神经网络可推断"理想人物"行为 [4][8] - 预测token的本质是理解其背后的现实世界逻辑,而非单纯统计学 [6][7] - Ilya的论证风格严谨,常以"误差范围对数刻度"等表述体现审慎态度 [9] 理想VLA的技术逻辑 - VLA架构通过传感器输入实时输出action token,结合diffusion优化轨迹,实现物理世界理解 [10] - VLA在NOA开启期间连续预测action token,其推理过程被视为一种动态意识 [11] - 理想将AI软件(神经网络权重)与硬件平台高效结合,技术整合含金量被低估 [13] 辅助驾驶与AI软件的差异 - 辅助驾驶的强化学习优势在于明确奖励函数(安全/舒适/效率)和可仿真性 [12][13] - AI软件内核是神经网络权重,与传统代码式开发范式存在根本差异 [13] - 硬件迭代速度慢于软件,AI软件需AB测试快速迭代,与硬件开发逻辑冲突 [13]
首访上海,“AI之父”缘何掀起浪潮?
国际金融报· 2025-07-28 21:06
行业技术发展 - 杰弗里·辛顿在人工神经网络领域的长期研究为深度学习技术奠定基础 其与团队提出的反向传播方法是训练人工神经网络的关键突破 被誉为机器学习的缺失数学部分 [6] - 2012年辛顿与团队开发的AlexNet模型赢得ImageNet竞赛冠军 推动深度学习从边缘技术转变为人工智能核心 引发全球科技巨头对神经网络技术的巨额投资 [7] - GPU技术的迅猛发展为人工神经网络研究注入新生命力 成为该领域发展的关键转折点 [6] 技术突破与影响 - 反向传播技术实际应用改变世界 每日有数亿用户使用基于神经网络的聊天机器人 这些系统通过大量文本数据训练的神经网络架构生成响应 [6] - 深度学习被全球科技巨头视为人工智能发展核心引擎 学术界重新重视神经网络理论 推动人工智能进入新时代 [7][8] - 大语言模型延续了辛顿1985年构建的语言与神经联结模型框架 采用更多词汇输入 多层神经元结构和复杂特征交互模式 其语言理解方式与人类高度相似 [10] 技术范式与安全 - 人工智能存在两大主流范式:逻辑型(智能基于符号规则推理)和生物学基础型(智能基于学习与联结网络) [10] - 辛顿估计人工智能接管并摧毁人类文明的概率达10%至20% 呼吁将至少三分之一计算资源投入人工智能安全研究 [11] - 批评大型科技公司将商业利益置于监管之上 警告放松管制会加速风险积聚 [11] 行业警示与趋势 - 人工智能发展速度超越专家预测 一旦超越人类智能可能无法阻止其掌控一切 [10] - 专家共识认为人类终将创造出比自己更聪明的人工智能 智能体未来会为生存和完成任务寻求更多控制权 [11] - 辛顿将研究重心转向AI安全 呼吁建立全球性AI安全协作机制 警告通用人工智能可能带来存在性威胁 [11]
“AI教父”辛顿现身WAIC:称AI将寻求更多控制权
第一财经· 2025-07-26 14:27
人工智能发展路径与现状 - 人工智能发展存在两种不同范式:符号型逻辑性范式和以生物为基础的范式,辛顿在1985年尝试结合这两种理论[3] - 当前大语言模型是辛顿早期微型语言模型的衍生,采用更多词输入、更多层神经元结构,处理大量模糊数字并建立复杂交互模式[4] - 大语言模型理解语言的方式与人类相似,通过将语言转化为特征并整合这些特征,因此也会产生"幻觉"[4] 人工智能技术突破 - 2012年辛顿团队开发的AlexNet算法采用卷积神经网络(CNN),成为机器学习重要分支[5] - AlexNet仅使用4颗英伟达GPU就取得突破性成果,相比谷歌猫项目使用的16000颗CPU大幅提升效率[5] - GPU在深度学习中的价值被辛顿早期发现,AlexNet论文成为计算机科学史上最具影响力的论文之一[5] 人工智能安全挑战 - 几乎所有专家认为人类将创造出比自身更智能的AI,AI未来可能为生存和目标寻求更多控制权[1][4] - 辛顿将AI发展比喻为抚养虎崽,强调需要确保其不会伤害人类[4] - AI接管并摧毁人类文明的概率估计在10%至20%之间[6] - 建议将至少三分之一计算资源用于研究如何确保AI系统不偏离人类意图[6] 人工智能治理建议 - 提议建立AI安全机构国际社群,研究训练AI向善的技巧[5] - 各国可在主权范围内研究并分享成果,全球或AI领导国家应建立相关网络[5] - 批评大型科技公司为商业利益游说放松监管是危险趋势[6] - 强调需要国际合作预防AI统治世界,防止AI夺走人类控制权[4]