Deep Learning
搜索文档
PGA Tour unleashes AI revolution with AWS to transform golf viewing experience for fans worldwide
Fox Business· 2026-01-19 04:16
合作升级与战略愿景 - PGA巡回赛与亚马逊云科技的合作关系升级至新阶段 双方自2021年开始合作 现已利用AWS人工智能基础设施现代化运营并扩展了直播制作能力[1] - 此次扩展的全球合作伙伴关系旨在加速改变高尔夫内容的创作、分发和全球体验方式[4] - 合作双方拥有共同愿景 即重新构想比赛及其相关内容如何为全球球迷开发和呈现 并致力于在AWS对PGA巡回赛工作室和世界信号的支持下推进这一变革[7] 技术创新与内容体验 - 在直播制作环境中 公司利用AWS AI基础设施现代化了运营并扩展了制作能力[1] - 将推出“最喜爱球员中心” 让球迷可以周复一周地追踪其喜爱球星的数据和故事线[4] - 将提供逐杆解说 为整个赛季的每一次击球提供实时分析 并结合丰富的图形和数据用于去年推出的“世界信号” 旨在为全球职业高尔夫球迷提供前所未有的独家内容[5] 市场影响与行业地位 - 亚马逊云科技已成为PGA巡回赛的官方云提供商以及人工智能、机器学习和深度学习合作伙伴[10] - 2025年 DP世界巡回赛(前欧洲巡回赛)也指定AWS为其官方云提供商 巩固了AWS在全球支持高尔夫的长期承诺[10] - 此次合作旨在帮助PGA巡回赛在全球范围内提供新功能 引领体育内容个性化发展的未来趋势[8]
刚刚,Geoffrey Hinton成为第二位引用量破百万的科学家
36氪· 2026-01-16 10:25
Geoffrey Hinton的学术成就与里程碑 - Geoffrey Hinton成为历史上第二位Google Scholar引用量突破100万大关的计算机科学家[1] - 其引用量最高的论文是2012年发表的《ImageNet classification with deep convolutional neural networks》,引用量达188,837次[3] - 其2015年发表的《Deep learning》论文引用量达107,646次,是引用量第二高的论文[3] - 引用量第三高的论文是2008年的《Visualizing data using t-SNE》,引用量达63,932次[3] - 在此之前,只有另一位“深度学习教父”Yoshua Bengio达成了百万引用成就[3] Geoffrey Hinton的核心学术贡献 - 与David Rumelhart和Ronald Williams共同发表关于反向传播的论文,解决了多层神经网络训练难题[11] - 提出玻尔兹曼机与受限玻尔兹曼机,为无监督学习和特征表示学习奠定基础[14] - 在2006年提出深度信念网络,通过逐层贪心训练方法有效训练深度神经网络[14] - 提出Dropout正则化技术,通过随机“丢弃”神经元防止过拟合,成为大型神经网络训练标准做法[14] - 提出t-SNE高维数据可视化技术,广泛用于理解深度学习特征表示[15] - 提出分布式表示,强调分布式特征编码在学习系统中的重要性[16] - 提出胶囊网络,通过“胶囊”表示和动态路由机制增强特征层次感知[17] - 提出混合专家模型,通过多个子网络协同工作并由路由器选择性激活,提高模型容量与计算效率[18] - 提出知识蒸馏,将大型复杂模型的知识迁移到小型模型,在保证性能的同时降低计算成本[19] - 提出层归一化技术,改进深度网络训练稳定性和收敛速度[20] - 在深度生成模型与概率图模型领域提出多种创新方法,为后续变分自编码器和生成对抗网络奠定理论基础[21] - 与学生Alex Krizhevsky、Ilya Sutskever共同推出AlexNet,在2012年ImageNet竞赛中以绝对优势夺冠,被公认为深度学习时代的“大爆炸”时刻[21] - 在2022年提出Forward-Forward Algorithm,作为对反向传播生物学合理性的反思与挑战[21] Geoffrey Hinton的荣誉与影响 - 2018年与Yoshua Bengio和Yann LeCun共同获得计算机领域最高荣誉图灵奖,三人被称为“深度学习三巨头”[21] - 2024年与John Hopfield共同获得诺贝尔物理学奖,以表彰他们“实现了利用人工神经网络进行机器学习的奠基性发现和发明”[25] - 其2015年发表于《Nature》的《Deep learning》论文系统总结了深度学习的发展历程、基本原理、关键算法及应用,标志着深度学习从学术探索迈向应用驱动的成熟阶段[23] Geoffrey Hinton的职业生涯与近期动态 - 于2023年5月从工作了十年的谷歌离职,以便能“自由地谈论AI的风险”[27] - 晚年成为AI风险的冷静警示者,担忧数字智能可能演变成比人类更优越的智能形式并对人类构成生存威胁[27] Geoffrey Hinton的杰出学生与合作者 - Alex Krizhevsky是AlexNet的主要构建者,编写了关键的CUDA代码,让神经网络在两块GeForce GPU上高效训练,在2012年ImageNet挑战赛上以10.8%的优势碾压第二名[31] - Alex Krizhevsky在谷歌工作数年后于2017年离职,目前可能已处于半退休状态[33] - Ilya Sutskever在Google Brain参与了序列到序列学习算法和TensorFlow的开发,是AlphaGo论文的众多作者之一[35] - Ilya Sutskever于2015年离开谷歌,作为联合创始人兼首席科学家创办了OpenAI,是ChatGPT和GPT-4诞生的关键人物[35] - 2024年,Ilya Sutskever成立了新公司Safe Superintelligence Inc.,并为其筹集了10亿美元资金[35]
Gorilla Technology to Host Live Investor Webinar and Q&A on January 28
TMX Newsfile· 2026-01-15 22:00
公司近期动态与活动 - 公司将于2026年1月28日美国东部时间下午4:15参加由RedChip协调的投资者网络研讨会 [1] - 网络研讨会将由公司董事长兼首席执行官Jay Chandan以及首席财务官Bruce Bower主持,讨论公司战略、技术建设、战略合作伙伴关系及2026年关键目标 [2] - 研讨会后将设有问答环节,投资者可通过指定邮箱提前或现场提交问题 [4] 公司经营与财务表现 - 公司拥有超过24年的运营历史,持有29项授权专利,且全球业务版图正在迅速扩张 [3] - 公司正在执行一个价值超过70亿美元的不断增长的业务管道,其驱动力来自于对GPU即服务基础设施、AI驱动的智慧城市和关键任务安全平台的强劲需求 [3] - 公司重申了2025年营收指引为1亿至1.1亿美元,EBITDA利润率指引为20%至25% [3] - 对于2026年全年,公司目前预计营收范围在1.37亿至2亿美元之间,反映了业务规模扩大、多年期合同可见性以及全球业务组合的持续增长势头 [3] 公司业务里程碑与战略 - 近期里程碑包括一项变革性的14亿美元多年期合作伙伴关系,将在东南亚部署AI就绪数据中心 [3] - 公司在亚洲和拉丁美洲的国家公共安全项目持续扩张 [3] - 公司总部位于英国伦敦,是一家在数据中心、安全智能、网络智能、商业智能和物联网技术领域的全球解决方案提供商 [4] - 公司利用AI和深度学习技术,为政府与公共服务、制造、电信、零售、运输与物流、医疗保健和教育等垂直领域提供广泛解决方案,包括智慧城市、网络、视频、安全融合和物联网 [4] - 公司专长在于革新城市运营、加强安全及提升韧性,其创新产品利用AI技术,涵盖智能视频监控、人脸识别、车牌识别、边缘计算、事后分析和高级网络安全技术 [4]
Magnite and Cognitiv Announce Deep Learning Integration for Real-Time Curation
Globenewswire· 2026-01-06 21:00
行业背景与挑战 - 消费者注意力持续分散在流媒体电视、音频、展示广告和移动渠道中 使得实时媒体策展变得至关重要[2] - 程序化广告生态系统日益复杂 买方需要能够通过更直接的供应路径和日益简化的工作流程来丰富和优化内容信号的先进人工智能解决方案[3] 合作核心内容 - Magnite与Cognitiv宣布实时数据集成 以扩展其统一激活与策展解决方案ClearLine的策展能力[1] - 通过完全集成Cognitiv的深度学习模型 Magnite能够丰富买方出价流 以优化其全渠道广告活动 实现期望的关键绩效指标[2] - 此次合作为媒体买家提供了更有效的方式来规划、测试和激活定制策展交易 从而更动态地获取优质视频广告库存[1] 合作价值与意义 - 买家正转向策展市场以获取更具智能的高质量供应 Cognitiv的深度学习能力为智能策展所能实现的效果设定了新标准[3] - Cognitiv带来了独特且复杂的数据驱动优化方法 有助于支持下一代决策 同时为买家提供更多灵活性和运营效率[3] - Magnite拥有先进的广告基础设施和与优质供应的直接连接 创造了能让实时策展和深度学习模型蓬勃发展的环境[3] 公司介绍 - Magnite是世界上最大的独立卖方广告公司 出版商使用其技术在所有屏幕和格式上实现内容变现 每月执行数十亿次广告交易[4] - Cognitiv是领先的由深度学习驱动的先进效果合作伙伴 自2015年以来利用尖端人工智能技术和数据科学更准确地预测消费者行为[5]
MicroCloud Hologram Inc. Develops Quantum-Enhanced Deep Convolutional Neural Network Image 3D Reconstruction Technology
Prnewswire· 2025-12-18 23:30
公司技术发布 - 微美全息创新性地推出了量子增强深度卷积神经网络图像3D重建技术系统 [1] - 该系统首先利用量子卷积神经网络完成输入图像的特征提取 然后通过量子全连接层生成3D模型的核心参数 最后将这些参数导入量子优化的3D模型完成重建 [1] - 该技术系统包含六个核心模块 分别是量子优化数据集准备 量子辅助特征提取 量子增强参数生成 量子加速3D重建 量子精度模型评估以及交互应用接口 [2] 技术模块详解 - 量子优化数据集准备模块是技术基础 负责3D模型数据的收集与准备 并运用量子计算技术进行数据预处理和清洗 显著提升数据集质量和可用性 [3] - 量子辅助特征提取模块使用量子卷积神经网络对输入图像进行特征提取和表示 利用量子叠加和量子纠缠特性高效提取更深层次的特征 [4] - 量子增强参数生成模块通过量子全连接层或量子优化回归算法 将特征向量精确映射到三维空间 以灵活控制3D模型的形状、大小、姿态等关键属性 [5] - 量子加速3D重建模块通过融入量子反卷积层和量子上采样层 利用量子计算的并行处理能力 快速将特征向量映射到三维空间 显著提高重建效率和模型精度 [6] - 量子精度模型评估模块通过量子计算技术精确测量生成模型与原模型的差异和误差 并据此优化算法参数和改进训练数据集 [7] - 应用接口模块负责3D重建模型的可视化呈现 构建便捷的用户交互界面 支持用户实时调整模型属性和参数 [7] 技术优势与应用前景 - 相比传统3D重建算法 该技术系统凭借量子计算与深度学习的深度融合 具有精度更高、适应性更强的显著优势 [8] - 在医疗领域 该技术可用于实现病例的精准分类与诊断 [9] - 在机器人领域 该技术可提升机器人避障精度 [10] - 在制造业 该技术可实现高效精准的物品建模 [10] - 未来 该技术还可与增强现实、虚拟现实等技术深度融合 结合量子计算的持续突破 拓展更丰富的应用场景 [10] 公司背景与战略 - 微美全息致力于全息技术的研发与应用 其全息技术服务包括基于全息技术的全息激光雷达解决方案、全息激光雷达点云算法架构设计、技术全息成像解决方案、全息激光雷达传感器芯片设计以及全息车辆智能视觉技术 [11] - 公司为全球客户提供全息技术服务 同时也提供全息数字孪生技术服务 并拥有专有的全息数字孪生技术资源库 [11] - 公司聚焦量子计算和量子全息等发展 现金储备超过30亿元人民币 [11] - 公司计划从现金储备中投入超过4亿美元 用于参与区块链开发、量子计算技术开发、量子全息技术开发以及人工智能AR等前沿技术领域的衍生和技术开发 [11] - 公司的目标是成为全球领先的量子全息和量子计算技术公司 [11]
美国 IT 硬件-专家洞察:AI 数据中心需要多少内存-U.S. IT Hardware-Expert Insight How much memory do AI Data Centers need
2025-12-15 09:55
AI数据中心内存需求专家洞察电话会议纪要 涉及的行业与公司 * 行业:美国IT硬件、半导体、内存、存储、AI数据中心[1] * 提及的公司:Google、Grok、OpenAI、Anthropic、Amazon、NVIDIA、Cerebras、IBM、华为、DeepSeek[14][18][29][32][35][36] * 覆盖的上市公司:希捷科技(STX)、西部数据(WDC)、SanDisk(SNDK)、三星电子(005930.KS/005935.KS/SMSN.LI)、SK海力士(000660.KS)、美光科技(MU)、铠侠(285A.JP)[7] 核心观点与论据 AI训练与推理的内存需求差异 * AI训练对内存的需求远高于推理[2] * 训练需要存储大量数据,包括模型权重、激活值、梯度、优化器状态和频繁的检查点[2][15] * 推理只需存储临时张量和KV缓存以实现快速响应,内存需求低得多[2][15] * 以一个中等规模模型为例,训练消耗约1TB的合计内存,而推理需求则低得多[2] * 一个700亿参数的通用模型需要140GB存储权重,加上激活值等增加500GB,梯度再增加140GB,总计接近1TB[16] * 当前趋势是模型规模向万亿参数发展,例如Gemini 3.0、Kimi K2,规模是上述例子的10倍[16] 供需失衡与价格影响 * AI的快速普及导致内存需求和价格急剧上升,令超大规模云服务商措手不及[3][26] * 供需失衡推高了HBM和DRAM等关键组件的成本[3] * HBM4每堆栈的成本预计将比HBM3高出近50%[21] * 超大规模云服务商正在签署多年期HBM采购保证,为未来晶圆厂预付款,并进行垂直整合[29] * 需求远超供应,导致HBM、DRAM、SSD等价格全面上涨[21][29] 存储技术趋势:从HDD转向SSD * 由于HDD短缺,许多超大规模云服务商已转向SSD[4] * SSD比HDD贵5到10倍,但公司愿意承担更高成本以继续推进其模型[4][40] * 在某些用例中,SSD提供更优性能、更低的运营成本、更低的功耗和最小的冷却需求,从而降低总体拥有成本[4] * SSD具有更高的IOPS,无机械部件,冷却要求低,占用空间小[38][42] * 一个10年期的TCO案例研究显示:HDD总成本约为8000万至8500万美元,而SSD仅为3000万至4000万美元,SSD在电力、空间和维护成本上显著节省[46] 训练与推理的存储需求差异 * 训练对存储的需求极高,推理则相对较低[19][24] * 训练需要存储从TB到PB级的数据集,频繁的检查点需要大量写入,模型文件庞大,日志记录持续不断[24] * 训练对存储的总需求是推理的100到1000倍[24] * 最小模型(约70亿参数)的数据集为1到5TB,而Gemini 3.0、Claude 4.5、ChatGPT 5.0等最先进的多模态模型的整个训练需要1到5PB的存储[25] * 推理主要使用SSD进行快速模型加载,SATA SSD或HDD很少使用,因为推理需要快速服务和加载模型[25] TPU与GPU的对比 * TPU专为机器学习构建,架构针对大型深度学习任务优化,与GPU相比,具有更低的TCO、更高的每瓦性能以及卓越的可扩展性[4][49][51] * GPU拥有成熟的生态系统和更广泛的软件支持,尽管能效相对较低,但更适合快速原型设计和小规模项目[4][50] * TPU使用称为脉动阵列的专用设计,像工厂流水线,超级优化,在训练大批量作业时,TPU的能效和短时间扩展能力比GPU好2到3倍[51] * TPU使用VMEM(向量内存)在芯片上存储数据,使其超高速,并且每芯片容量要求更低,所需内存更少[53] * TPU未被广泛使用的主要原因是生态系统挑战和灵活性,用户基本上被锁定在GCP中使用[54][56] 新兴内存技术 * 高带宽闪存是一种新兴技术,旨在通过提供TB级的快速非易失性内存,来弥合传统DRAM和SSD存储之间的差距[5] * 这种新的内存层级有望降低能耗和冷却成本,同时为AI推理工作负载提供所需的高速,是下一代数据中心的有前景的解决方案[5] * SanDisk与SK海力士正在合作开发高带宽闪存,目标是为AI推理工作负载提供TB级内存,作为HBM和PCIe连接SSD之间的新快速访问内存层级[57] 中美AI发展对比 * 主要的前沿模型如Gemini、ChatGPT等均由美国公司开发,美国整体领先于中国[35] * 中国的模型(如华为盘古)参数规模接近1万亿,但基于评估,其性能未见超越美国模型[35] * 中国模型训练所使用的内存/硬件量显著低于OpenAI或Gemini[35] * 中国模型采用“蒸馏”等技术,并非从头训练,这使其更快、更高效,所需硬件/内存/训练时间更少[36] * DeepSeek是ChatGPT 4.0的蒸馏模型,这种创新技术有助于在内存供应瓶颈下保持竞争力[36] 行业创新与长期可持续性 * 行业创新,包括更高效的模型架构、先进的量化方法和新芯片的开发,预计将有助于长期管理内存需求并提高整体可持续性[3] * 更高效的模型架构、更激进的量化、新的内存技术、SSD或NAND缩放以及减少内存移动的加速器,将在未来2到5年内缓解压力[21] * 新模型并非全部从头训练,大量采用复用、蒸馏等技术,减少了从头训练的需求[16] * 超大规模云服务商正在采用量化来减少内存使用,采用以SRAM为中心的架构,重新构建推理以压缩缓存,并构建内存池数据中心[29] 其他重要内容 超大规模云服务商需求预测失误的原因 * 几年前发布ChatGPT-3、BARD时,公司并未完全意识到其产品的潜力,认为这只是机器学习的下一步[27] * 随着模型演进,他们意识到这些模型可以轻松获取信息并执行复杂任务,但最初对此没有洞察[27] * 2024年和2025年采用率增长如此之快,导致所有公司都在竞相构建最佳模型[27] * 2023年之前的所有规划都假设训练极其昂贵,推理便宜,可能只需要几个基础模型[28] * LLM在所有消费者应用中爆发,推理变为始终在线,集成到Gmail、Docs等应用中,需求激增[28][29] * 超大规模云服务商低估了AI尤其是内存受限方面的发展速度,现在他们正在为HBM、DRAM和SSD支付创纪录的价格[29] 推理内存需求的影响因素 * 推理的内存需求主要取决于模型在做什么,例如进行微调或添加LoRa权重适配器时,需要加载所有权重并分配内存[31] * 行业的一大趋势是在芯片上增加内存以实现更快的推理,例如Grok在LPU上使用SRAM,Google的Ironwood、Amazon的Trainium等新芯片都趋向于在推理时拥有更多片上内存[31] * 片上内存或推理所需的内存主要用于优化和加速过程,较少依赖于所执行的任务类型[31] 具体模型对比 * Gemini 3.0目前在所有推理、多模态、代理和其他基准任务上,相比5.1系列,在每一个用例和评估中都占据主导地位[33] * 性能更好的原因主要在于上下文窗口和模型训练方式,以及使用了另一种强化学习技术以获得更好的响应[33] HDD短缺对NAND需求的影响 * HDD短缺导致NAND闪存(主要用于SSD)使用增加[37] * HDD和NAND闪存都是非易失性数据存储的主要类型,基于成本、性能和容量以互补方式竞争[37] * HDD的供应链限制导致数据中心转向NAND闪存,用于数据中心的高容量模型[37] 投资建议 * 希捷科技(STX):跑赢大盘评级,目标价370美元[8] * 西部数据(WDC):与大市同步评级,目标价170美元[9] * SanDisk(SNDK):跑赢大盘评级,目标价300美元[10] * 三星电子:跑赢大盘评级,目标价130,000韩元[11] * SK海力士:跑赢大盘评级,目标价650,000韩元[11] * 美光科技(MU):跑赢大盘评级,目标价270美元[11] * 铠侠(KIOXIA):跑输大盘评级,目标价7,000日元[11]
Intellicule receives NIH grant to develop biomolecular modeling software
Globenewswire· 2025-12-11 01:01
公司获得资助与项目目标 - 公司Intellicule获得美国国立卫生研究院提供的217,941美元小企业创新研究第一阶段资助 [1] - 该笔资金将用于开发可能影响精准医学的软件技术 [1] - 该项目旨在利用最先进的深度学习技术,扩展和推进用于药物发现的冷冻电镜结构建模与分析 [5] 公司技术与解决方案 - 公司解决方案专注于确定通过冷冻电镜成像的生物分子的三维结构 [1] - 深度学习是公司建模软件的核心,该技术是一种强大的人工智能,在图像处理方面特别有效 [6] - 该软件能够检测低分辨率冷冻电镜图像中的原子,这在没有该技术的情况下极难实现 [6] 行业应用与市场需求 - 冷冻电镜是一种广泛使用的实验技术,用于确定蛋白质、核酸和包括药物分子在内的配体等生物大分子的三维结构 [3] - 生物技术和制药公司越来越多地采用冷冻电镜,因为它能够提供对生物靶点的详细结构洞察 [4] - 当分辨率低于3埃时,配体建模过程会变得非常耗时且容易出错,这凸显了对能够简化建模过程、减少错误并使冷冻电镜对药物发现领域的非专业人士更易用的先进软件工具的需求 [5] 项目潜力与公司背景 - 该软件技术有潜力通过提供可指导设计具有更高疗效分子的精确结构信息,来加速新药的开发 [2] - 该项目在方法论上的知识价值在于克服了当前冷冻电镜数据生物分子建模的局限性 [6] - 公司前身为Molecular Intelligence,于2024年夏季成立,并于2025年1月获得了普渡大学技术商业化办公室授予的软件独家销售许可 [6] 相关研究背景 - 公司负责人Daisuke Kihara是普渡大学理学院的生物科学和计算机科学教授,同时也是普渡大学癌症研究所和药物发现研究所的成员 [3] - 此项工作是普渡大学“同一健康”倡议的一部分,该倡议汇集了人类、动物和植物健康的研究 [7]
Gorilla Announces Delivery of CVR Payment Notice
Newsfile· 2025-12-05 06:45
公司公告核心 - Gorilla Technology Group Inc 宣布将向A类或有价值权利持有人进行普通股分配 [1] CVR分配详情 - 2025年11月18日,公司股东放弃了587,747股盈利对价股份 [2] - 2025年12月4日,上述587,747股被确认为价格保护股份,每份合格CVR对应0.130382275股普通股 [2] - 持有人需在CVR付款通知送达后一年内成为合格CVR持有人,否则其分配的基础普通股将被视为放弃 [4] 成为合格CVR持有人的程序 - 持有人需向指定邮箱发送包含规定信息的通知以成为合格CVR持有人 [3] - 通知必须包含法律全名、邮寄地址、居住国、公民身份、美国纳税人识别号或社会安全号、签署并注明日期的美国国税局W-8或W-9表格、电子邮件地址、截至2025年12月4日持有的A类CVR数量,以及若通过经纪账户持有则需提供经纪公司名称和联系方式 [9] - 公司将以商业上合理的确定性判断通知是否有效,无效通知将被告知,但后续补充信息可使其被视为有效通知 [3] 公司业务概览 - 公司总部位于英国伦敦,是全球安全情报、网络情报、商业情报和物联网技术解决方案提供商 [5] - 公司利用人工智能和深度学习技术,为政府与公共服务、制造、电信、零售、运输与物流、医疗保健和教育等垂直领域提供智慧城市、网络、视频、安全融合和物联网等广泛解决方案 [5] - 公司专长于革新城市运营、加强安全及增强韧性,提供利用AI的智能视频监控、人脸识别、车牌识别、边缘计算、事后分析和先进网络安全技术等开创性产品 [6] - 公司通过整合这些AI驱动技术,赋能智慧城市提升效率、安全及网络安全措施,最终改善居民生活质量 [6]
Meta chief AI scientist Yann LeCun is leaving to create his own startup
CNBC· 2025-11-20 05:31
杨立昆离职与创业 - 杨立昆宣布将离开Meta并创办一家专注于“世界模型”AI技术的初创公司[1] - 新公司的目标是实现AI的下一次重大革命,开发能够理解物理世界、具备持久记忆、能推理和规划复杂行动序列的系统[2] - Meta将与杨立昆的初创公司建立合作伙伴关系[2] Meta AI部门重组与战略转变 - Meta的AI部门在今年进行了重大重组,原因是其开源大语言模型Llama第四版发布后开发者反响令人失望[3] - 公司首席执行官马克·扎克伯格投入数十亿美元招募顶级AI人才,包括在6月投资145亿美元招募Scale AI的28岁首席执行官Alexandr Wang,其现为Meta新任首席AI官[3] - 扎克伯格近期引入的其他知名人士包括前GitHub首席执行官Nat Friedman领导产品团队,以及ChatGPT联合创始人Shengjia Zhao担任首席科学家[8] AI技术路线分歧 - 杨立昆的AI发展方向已与Meta及硅谷其他公司产生分歧[6] - Meta和OpenAI等科技公司投入数十亿美元开发基础模型特别是大语言模型,而杨立昆等专家认为当前AI模型对世界的理解有限,需要新的计算架构来实现通用人工智能[7] - 杨立昆主张在独立实体中追求高级机器智能以最大化其广泛影响,其应用领域部分与Meta商业利益重叠,但许多并不重叠[8] Meta内部AI团队变动与文化冲突 - 10月Meta从其超智能实验室部门裁减600名员工,其中包括部分FAIR部门的成员[9] - 多年的FAIR裁员以及新的AI领导团队是杨立昆决定离职的主要原因[9] - 杨立昆与新任首席AI官Alexandr Wang及其团队很少互动,后者负责监督最初由FAIR开发的Llama AI模型[10] - 在面临OpenAI和谷歌的激烈竞争下,杨立昆一贯倡导开源AI研究,而Wang及其团队倾向于采取更封闭的方法[11]
全球首个「百万引用」学者诞生,Bengio封神,辛顿、何恺明紧跟
36氪· 2025-10-26 09:49
AI领域顶尖研究者学术影响力 - Yoshua Bengio总被引次数达987,920次,其中过去5年引用量为711,796次,占比72% [5] - Geoffrey Hinton总被引次数为972,944次,其中过去5年引用量为597,571次,占比61% [2][5] - 何恺明总被引次数超过75万次,达到756,424次,其中过去5年引用量为639,760次,占比高达84.6% [31][32] - Ilya Sutskever总被引次数超过70万次,达到706,612次,其中过去5年引用量为538,943次 [34][35] 高影响力论文与学术成就 - Bengio的《Generative adversarial nets》被引104,225次,《Deep learning》被引103,249次 [1] - Hinton的《Imagenet classification with deep convolutional neural networks》被引185,004次,《Deep learning》被引103,216次 [2] - 何恺明的《Deep Residual Learning for Image Recognition》被引298,327次,《Faster R-CNN》被引97,114次 [32] - Ilya Sutskever参与的《Imagenet classification with deep convolutional neural networks》被引185,909次 [35] AI领域发展里程碑 - 2018年Bengio、Hinton和Yann LeCun共同获得图灵奖,此后Bengio的引用量开始爆发性增长 [4][6] - 2012年AlexNet在ImageNet上取得突破性成果,被视为深度学习"引爆点" [17] - 2015年Nature发表LeCun、Bengio、Hinton的综述《深度学习》,成为标准理论引用来源 [19] - 2017年Transformer提出,2018年BERT证明预训练/微调范式,推动多模态与生成式AI发展 [21] AI学术生态发展趋势 - 2010-2022年全球AI论文总量从约8.8万增长至24万+,近乎三倍增长 [26] - AI占计算机科学论文比例从2013年的21.6%升至2023年的41.8%,几乎占据半壁江山 [26] - 2024年顶会投稿量激增:ICLR 2024共7,262投稿,NeurIPS 2024总投稿17,491,CVPR 2024投稿11,532 [26] - AI论文引用爆发式增长与AI时代发展相契合,奠基者的累积引用增长加速 [23][26] 其他高影响力研究者 - Yann LeCun被引次数超过43万次 [11] - Ian Goodfellow被引超过38万次 [40] - Jeff Dean被引373,153次 [44] - 李飞飞被引322,796次 [44] - Juergen Schmidhuber被引29万+ [40] - 吴恩达被引29万+ [40][47] - Noam Shazeer被引28万+ [40][55]