ResNet
搜索文档
一文看懂NPU
半导体行业观察· 2026-04-17 10:06
文章核心观点 - 人工智能(AI)的第三次浪潮始于1993年,其核心驱动力是计算能力的显著提升,特别是图形处理器(GPU)的普及,这解决了前两次浪潮因算力不足而停滞的问题 [1] - 2012年ImageNet大赛中基于卷积神经网络(CNN)的AlexNet的突破性成功,标志着CNN成为AI发展的核心技术,并引发了使用GPU进行AI研究的热潮 [1] - GPU因其高度并行计算能力和易获取性,成为早期AI训练的关键硬件,但并非专为AI设计,存在功耗高、处理小批量或稀疏数据效率低等局限性 [12][15][20][21] - 为克服GPU的局限并追求更高效率,行业正积极发展专用AI处理器/加速器,其特点包括:专为AI计算优化、采用数据流架构、集成大量SRAM或HBM内存,以及探索存内计算(CIM/PIM)和模拟处理等新技术路径 [24][26][32][36][40][41] 人工智能发展历程与关键转折 - **第三次浪潮的起点**:人工智能的第三次浪潮始于1993年,核心原因是计算能力的大幅提升,使得传统算法得以有效应用 [1] - **标志性事件**:1997年IBM“深蓝”击败国际象棋世界冠军,但其基于专用硬件的“蛮力”计算并未普及 [1] - **历史性突破**:2012年ILSVRC大赛中,多伦多大学的AlexNet(基于CNN)以显著优势获胜,错误率为16.4%,此后CNN成为AI研究的主流方向 [1][10] - **性能飞跃**:2015年微软ResNet将ImageNet错误率降至3.57%,低于人类的5.1%,但网络层数达152层,计算量巨大 [10] 卷积神经网络(CNN)与计算需求 - **CNN的起源**:其理论基础源于1958年对大脑结构的模拟(感知器模型),早期尝试如Thinking Machines公司的CM-1系统因规模远小于人脑而未成功 [2] - **计算需求激增**:以AlexNet第一层卷积为例,需进行超3500万次乘法和近3500万次加法运算 [9] - **算力对比**:AlexNet使用两张NVIDIA Tesla C2050显卡(算力共约2.06 TFlops)训练约两周,若使用1980年代的CM-1系统完成相同任务需70多年 [3] - **硬件选择必然性**:处理CNN海量计算的唯一可行方案是使用具备高度并行计算能力的GPU [12] GPU成为AI计算主流的原因与演进 - **核心优势**: - **高度并行性**:利用SIMT架构,可同时处理大量线程(如Fermi架构有24,576个线程),适合CNN的并行计算模式 [12][13] - **内存与计算平衡**:早期CNN模型(如AlexNet第一层)所需数据量约1.3MB,可放入缓存,属于计算密集型任务,与GPU特性匹配 [14] - **易获取性与生态**:消费级GeForce显卡易于购买,且CUDA编程比OpenCL更易用,迅速形成了AI研究与NVIDIA GPU的强绑定 [15] - **NVIDIA的持续优化**: - **引入专用单元**:2017年在Volta架构中引入张量核心,专门优化矩阵运算 [18] - **降低计算精度**:为提升性能,支持FP16/BF16、FP8乃至最新的FP4数据类型,通过构建更大网络来弥补精度损失 [18][19] - **集成高带宽内存**:为应对大型网络的内存需求,集成HBM内存以提升带宽和容量 [19] - **面临的挑战**: - **功耗剧增**:从Ampere A100的250W,到Hopper H200的700W,再到Blackwell B300的1400W,给数据中心供电带来压力 [20] - **处理效率局限**:在LLM推理中,当批处理大小减小时,GPU性能会下降;且SIMD结构难以高效处理稀疏矩阵 [20][21] - **架构调整**:NVIDIA曾计划为LLM解码推出专用处理器(Rubin CPX),但后续改为采用不兼容CUDA的Groq 3处理器,显示出GPU的局限性 [21] 专用AI处理器/加速器的兴起与特点 - **发展背景**:2010年代末,GPU在AI计算中的缺点逐渐显现,催生了旨在弥补这些不足或针对特定市场的专用AI处理器/加速器 [24] - **核心设计特点**: - **专用计算单元**:许多加速器仅专注于卷积和激活函数等特定AI运算,牺牲通用性以换取更高效率 [24] - **异构集成**:常将通用CPU内核(如RISC-V)与专用AI加速器结合,以保持一定的灵活性和可编程性 [25] - **主流架构与技术趋势**: - **数据流架构**:成为主流设计,通过将处理任务像流水线一样分配给多个处理单元(PE),减少开销并优化负载,能高效处理稀疏矩阵 [26][27][31] - **存内计算/近存计算**:将内存与计算单元紧密结合以降低数据传输功耗,特别适合以卷积为主的AI计算。三星、SK海力士等公司正推进相关研发 [32][33][35] - **集成大容量SRAM**:为避免高延迟、高功耗的片外DRAM访问,AI加速器倾向于集成大量SRAM作为暂存区。Cerebras的WSE-3集成了90万个PE和44GB SRAM [36][37][38] - **搭载HBM内存**:为满足LLM等大型模型的内存需求,AI处理器普遍集成2到4个HBM芯片以获取超高带宽 [40] - **模拟处理器**:适用于边缘计算,通过模拟电路执行卷积运算实现高能效和低成本,代表公司有Mythic、Aspinity等 [41][42]
将注意力旋转 90 度!今天,Kimi 的「注意力残差」火了
机器之心· 2026-03-16 18:23
文章核心观点 - 由Kimi团队提出的“注意力残差”技术,通过用依赖输入的注意力机制取代传统的残差连接,解决了深层神经网络中的信息稀释和隐藏状态爆炸问题,实现了性能提升和计算效率优化,可能标志着深度学习架构的范式转变 [4][8][31] 技术背景与问题 - 自2015年ResNet诞生以来,传统的“y = x + f(x)”残差连接机制统治了神经网络架构近十年 [1] - 传统残差连接在模型向更深层发展时存在两大副作用:1)信息稀释,导致浅层特征贡献度随深度线性衰减;2)隐藏状态爆炸,导致数值不稳定和训练困难 [7][8] 核心创新:注意力残差 - 核心思想是“将注意力旋转90°”,将Transformer在时间序列上取代RNN的注意力机制,应用于网络的深度维度 [9][14] - 每一层生成一个可学习的Query,与之前所有层的Key进行匹配,通过Softmax分配权重,有选择地聚合历史层特征,公式为:$$h_{l}=\alpha_{0\to l}\cdot h_{1}+\sum_{i=1}^{l-1}\alpha_{i\to l}\cdot f_{i}(h_{i})$$ [9][13][14] - 该方法解决了传统残差连接将信息“压缩”进单一求和状态的问题,允许深层直接高效利用浅层特征 [12] 工程实现:块注意力残差 - 全量注意力残差计算复杂度为O(L²),在超深模型中会导致显存和通信量爆炸 [14] - 研究团队设计了块结构以提升效率,将模型分成N个块,块内进行特征累加,块间进行基于注意力的聚合 [14][15] - 实验表明,即使模型有上百层,仅需划分成约8个块即可获得绝大部分性能增益,将内存开销从O(Ld)降至O(Nd) [17][18] 实验效果与性能提升 - 实验基于与Kimi Linear一致的混合专家模型架构,仅将残差连接替换为AttnRes [20] - 在5.6 PFLOP/s-days的计算量下,Block AttnRes的损耗为1.692,基准模型为1.714,实现了1.25倍的计算优势 [24] - 下游任务评测显示,Block AttnRes在所有任务上均达到或超过基准模型,在多步推理任务上提升尤为显著,例如GPQA-Diamond提升7.5分,HumanEval提升3.1分 [27][28][33] - 该技术成功抑制了隐藏状态的数值爆炸,实现了更均匀的梯度分布,提升了训练稳定性 [32][33] 行业影响与意义 - OpenAI的Jerry Tworek等资深研究者受此启发,认为这可能意味着“深度学习2.0”时代的到来 [3] - 该研究揭示了模型的“深度”与“时间”的对偶性,为重新思考包括优化器在内的基础架构提供了新视角 [8][30][31] - 该技术以极小的推理延迟代价(增加<2%)获得了更优的网络性能,展示了架构创新的巨大潜力 [22]
阶跃星辰不再低调:巨额融资,印奇加入,“1+3”核心决策层浮出水面
36氪· 2026-01-27 19:31
公司重大融资与人事动态 - 阶跃星辰完成超过50亿元人民币的B+轮融资,刷新了过去12个月大模型赛道的单笔融资纪录 [1] - 该融资金额超过了大模型“六小虎”中智谱和MiniMax的IPO募资金额 [2] - 印奇正式加入公司核心决策层并担任董事长,其背景为清华姚班首批校友、旷视科技创始人及现千里科技董事长 [2] 核心决策层“1+3”架构 - 公司核心决策层呈现“1+3”模式,即董事长印奇,以及CEO姜大昕、首席科学家张祥雨、CTO朱亦博 [4][5] - 该团队结构对应大模型落地所需的四类核心能力轴:战略、算法、系统、工程 [9] - 豪华的团队阵容是公司坚持“AI+终端”战略的底层支撑 [7] 核心团队成员背景与专长 - **董事长印奇**:拥有横跨AI 1.0(计算机视觉)与AI 2.0(大模型)时代的经验,成功带领旷视科技实现产业落地,并在千里科技主导“AI+车”战略转向,其产业落地经验与终端视角将为公司提供现实把控力 [10][11][12][13] - **CEO姜大昕**:自然语言处理领域全球知名专家,2025年IEEE Fellow,谷歌学术被引量超过2.4万次,曾任微软全球副总裁,负责必应搜索引擎开发,拥有超大规模在线系统经验,其背景适合带领团队迎战大模型应用落地 [14][16][17][18] - **首席科学家张祥雨**:ResNet作者之一,该论文被引用超过30万次,是深度学习领域的里程碑,其研究方向覆盖多模态大模型、神经网络架构设计及模型加速,长期致力于架构与结构层面的工作,为公司基座模型和原生多模态方向提供技术前瞻与决策锚点 [19][20][22][23][25][26][27][28] - **CTO朱亦博**:专攻AI基础设施(AI Infra),奠基了RoCE高速网络协议,曾于字节跳动从零建设国内最大规模AI Infra之一,并担任Google Cloud GPU产品技术负责人,其领导的系统团队在公司内部与算法团队同等重要,形成了双引擎架构,为公司带来训练效率、集群稳定性及模型迭代节奏上的差异化优势 [30][31][32][35] 团队深层背景与能力交汇 - 公司核心团队履历在“微软Search系”和“旷视CV系”两条线上反复交叉 [38] - 算法与商业化落地团队很大程度上来自旷视体系,拥有将算法与硬件结合、在真实物理世界中部署的软硬结合实战经验 [39][40] - 数据团队更多出自微软搜索团队,拥有处理海量数据、构建数据闭环和系统化评估结构的工程经验,能有效应对大模型长期运行中的数据漂移、评估失真等问题 [43][44][45] - 这两套体系的交汇,构成了公司“AI+终端”战略最核心的两个能力轴,即端到端体验把控和与物理世界打交道的能力 [46][47][48] 公司战略方向:AI+终端 - 公司自成立起就反复强调并坚持“AI+终端”的战略 [7] - 该战略与印奇在旷视和千里的“AI+终端落地”经验高度契合 [12] - 公司致力于将复杂的模型转化为适配手机、汽车等终端设备的实用方案 [40] - 印奇加入后规划,在2026年要实现三项目标:在汽车端让100万辆车搭载千里智驾系统;在基础模型上达到全球第一梯队水平;孵化创新硬件并在未来12~15个月内面世 [55][56] 行业市场前景 - 软硬件结合的“AI+终端”模式存在市场蓝海,终端设备拥有高频入口、上下文连续性和本地数据优势 [52] - 据IDC报告,到2026年,中国市场AI终端出货量将超过3亿台,AI终端渗透率在2027年将爆发式突破93% [52] - 行业范式正在转向,AI能力将从可选卖点向系统级基础能力迁移 [52]
阶跃星辰不再低调:巨额融资,印奇加入,“1+3”核心决策层浮出水面
量子位· 2026-01-27 16:32
公司近期重大动态 - 阶跃星辰完成超过50亿元人民币的B+轮融资,刷新了过去12个月大模型赛道的单笔融资纪录,其金额超过智谱和MiniMax的IPO募资金额[2] - 印奇正式加入公司核心决策层并担任董事长,标志着公司核心决策层形成了“1+3”的班底模式[3][8][13] 核心决策层“1+3”团队构成与能力 - “1”指新任董事长印奇,他是清华姚班首批校友、旷视科技创始人、现千里科技董事长,是横跨AI 1.0(计算机视觉)与AI 2.0(大模型)时代并完成过产业与硬件闭环的样本人物[5][6] - “3”分别为CEO姜大昕、首席科学家张祥雨、CTO朱亦博,四人团队对应大模型落地所需的战略、算法、系统、工程四类核心能力轴[13][14][15] - 董事长印奇在AI 1.0时代带领旷视科技将计算机视觉技术推向真实产业场景,后在2024年入主千里科技主导“AI+车”战略,其产业落地与终端视角与公司“AI+终端”战略高度契合[20][21][22][23][25] - CEO姜大昕是自然语言处理全球知名专家,2025年IEEE Fellow,谷歌学术被引量超过2.4万,曾任微软全球副总裁,负责必应搜索核心模块,拥有超大规模在线系统经验,其背景适合带领团队迎战大模型应用落地[28][29][30][31][33] - 首席科学家张祥雨是ResNet作者之一,该论文是计算机科学领域引用量最高的巅峰之作,其研究方向覆盖多模态大模型、神经网络架构设计、模型裁剪与加速,曾开发影响手机解锁技术的ShuffleNet,目前正带领团队攻坚原生多模态,为公司的技术路线提供可靠的决策锚点[35][36][39][40][43][48] - CTO朱亦博曾奠基RoCE高速网络协议,后于字节跳动从零建设国内最大规模AI Infra之一,拥有单集群万卡以上系统经验,加入公司后使AI Infra团队与算法团队处于同等重要的“双引擎”位置,为公司带来训练效率、集群稳定性及模型迭代空间的差异化竞争优势[50][51][54][56][57][58] 公司战略方向:AI+终端 - 公司自去年起反复强调并坚持“AI+终端”战略,该战略与印奇在旷视和千里的“AI+终端落地”经验不谋而合[11][23] - 公司核心团队背景交汇于微软搜索系与旷视计算机视觉系,分别带来了数据工程与软硬结合的实战经验,构成了“AI+终端”方向最核心的两个能力轴[63][67][71][78] - 从市场角度看,软硬件结合的AI+终端模式存在蓝海机会,终端设备具有高频入口和本地数据优势,据IDC报告,到2026年中国市场AI终端出货量将超过3亿台,2027年渗透率将爆发式突破93%[85][86] - 印奇加入后规划在2026年实现三件事:在汽车端让100万辆车搭载千里智驾系统;在基础模型上达到全球第一梯队水平;在未来12~15个月内孵化出创新硬件面世[90][91] 团队背景与公司能力构建 - 公司的算法团队和商业化落地能力很大程度上来自旷视体系,该体系成员拥有将算法与硬件结合、在真实物理世界约束下实现落地的软硬结合实战经验[65][66][67] - 公司的数据团队更多出自微软搜索团队,搜索系统对数据工程和实时反馈闭环的苛刻要求,使其沉淀的经验能有效应对大模型长期运行后的数据漂移、评估失真等关键问题[71][72][74][75] - 微软系与旷视系两条线的交汇,使公司成员共同秉持“模型必须接受真实系统约束”的前提,构成了公司相信系统、相信长期演进路径的工程逻辑基础[76][77][81]
对话任少卿:2025 NeurIPS 时间检验奖背后,我的学术与产业观
雷峰网· 2025-12-05 18:24
文章核心观点 文章通过报道任少卿及其团队获得NeurIPS时间检验奖,回顾了其奠基性工作Faster R-CNN的深远影响,并深入探讨了任少卿加入蔚来后,在自动驾驶全栈自研、芯片定义、数据闭环体系构建以及技术路线(如世界模型)探索等方面的实践与思考,展现了蔚来在智能驾驶领域从零开始构建核心能力的过程与战略布局 [1][2][11][13][27] 根据相关目录分别进行总结 Faster R-CNN的成就与影响 - 任少卿、何恺明、孙剑与Ross Girshick共同发表的Faster R-CNN荣获2025年NeurIPS时间检验奖,该奖项表彰经过十年检验、对学科发展产生深远影响的奠基性工作 [1] - Faster R-CNN发表于2015年,将物体检测效率提升10倍以上,开创了端到端实时精准目标检测模式,其论文已被引用超9.8万次,是AI检测领域全球最高被引论文 [2] - 该模型的核心思想已深度融入人工智能基础技术,成为驱动自动驾驶、医疗影像、安防监控、工业检测、卫星遥感等关键领域的核心技术 [2] 研究理念与团队合作 - 孙剑坚持“simple but work”的研究理念,认为做核心工作需要远见、品位和坚持 [4][6] - 任少卿与何恺明的合作紧密且高效,日常节奏包括多次集中讨论与实验推进,何恺明几乎投入100%的精力,专注于研究问题、寻找方向与突破 [6][7][8] - 团队选择深度学习方向基于几个关键判断:方法有创新性、已有初步结果和进展、结果具备泛化能力而非技巧性(trick),验证了方向的可扩展性 [10] 加入蔚来与全栈自研启动 - 任少卿于2020年8月加入蔚来,首要任务是搭建团队并启动全栈自研L2产品,支持L3和L4,同时进行芯片选型 [13] - 蔚来第二代车是全球首个量产英伟达Orin芯片(使用4颗芯片)及高线束激光雷达的车型,于2022年3月在中国量产,半年后在欧洲量产 [14] - 团队在极短时间内(从拿到芯片到量产仅6-7个月)克服了Orin芯片作为新硬件在算力(比上一代增大8倍多)、架构、散热、功耗及工具链等方面的挑战,完成了复杂的自动驾驶域控制器(ADC)架构量产 [14][15] 自研芯片的定义与考量 - 作为需求方,团队参与了自研芯片的定义,基于对技术发展的判断,早在2021年就预见到Transformer将更广泛应用,这对芯片内存带宽提出了更高要求 [16] - 蔚来自研芯片具备行业最高的带宽,以支持Transformer等模型,并为支持更高级别自动驾驶(L3/L4)预埋了热备能力,可在百毫秒内实现芯片切换且用户无感 [17] 数据闭环与高效迭代体系 - 蔚来自2020年起重点建设数据能力,认为数据的价值在于针对特定模型筛选出的“corner case”,而非简单的数据拷贝,数据筛选过程消耗大量算力 [19][20] - 公司构建了灵活调度云端和车端算力的系统,并在此基础上建立了类似互联网行业的“AB test”系统,允许在量产车上并行测试下一代算法 [21] - 通过“AB test”系统,蔚来将主动安全功能的迭代效率大幅提升,即使面对高达200万公里一次误报(FP)的严格标准,也能实现三天迭代一次的速度 [22] - 针对超80万辆量产车的智驾接管数据,建立了自动化分析系统,能过滤掉99%以上的无效信息,仅返回0.1%-0.5%的有效数据供进一步分析,极大提升研发效率 [22] 对端到端与世界模型的技术思考 - Faster R-CNN本质是解决了物体检测任务的端到端问题,将检测速度提升至实时(10Hz、20Hz、30Hz),为视频处理和应用落地带来突破 [11] - 任少卿认为,端到端是自动驾驶技术演进的一个阶段,但并未解决所有问题,例如语言模型无法解决真实世界所需的时空认知问题 [24][25][26] - 世界模型旨在建立时空认知能力,学习物理规律和时空理解,以解决长时序决策问题,这是语言模型无法做到的 [26][27] - 蔚来于2023年决定All in世界模型,并于2024年7月首次公开发布,成为行业内率先拥抱此路线的公司之一,世界模型能支持长达10秒、1分钟甚至更长的时序推演,替代传统的规则代码(if else)处理长时序场景 [27][28][29][30]
何恺明MIT两名新弟子曝光:首次有女生入组,另一位是FNO发明者,均为华人
量子位· 2025-11-06 12:04
何恺明MIT团队新成员概况 - AI大牛何恺明在MIT的主页更新了两名新弟子的信息:博士生胡珂雅和博士后李宗宜 [1] - 何恺明任教MIT以来招募的6位学生中,5名都是中国面孔 [4] 胡珂雅背景与研究经历 - 胡珂雅本科毕业于上海交通大学ACM班,高中就读于福建师范大学附属中学 [5] - 大三期间在上海交通大学脑机接口实验室研究AI与脑科学结合,以第一作者完成论文并被国际生物医学计算机顶会EMBC接收 [7][8] - 作为共同作者参与的论文被顶会Cognitive Science 2025收录,并在康奈尔大学实习期间参与的项目成果被NeurIPS 2024接收,担任第二作者 [10][11] - 主导研发关键方法参与ARC Prize 2024竞赛,该竞赛总奖金超过100万美元,吸引全球1430支队伍参赛,其团队成果达到SOTA水平并斩获最佳论文奖 [12][13][15][17] - 以共同第一作者身份将ARC竞赛研究成果整理成文,成功发表于顶级机器学习会议ICLR 2025 [18] - 本科阶段共完成四篇高含金量论文,一半为第一作者,获得MIT、普林斯顿、卡内基梅隆等多所名校博士offer,最终选择MIT直博 [21][22] - 目前是MIT电子工程与计算机科学系一年级博士生,由何恺明和Jacob Andreas共同指导,专注于语言与视觉的交叉研究 [23][24] 李宗宜背景与研究贡献 - 李宗宜在2021年以第一作者身份发表重量级论文,提出傅里叶神经算子(FNO),首次实现神经算子的规模化应用 [27][29] - 神经算子是一种能学会解物理方程的神经网络,可在几毫秒内完成传统超级计算机需数小时的计算任务,在天气预报、碳封存等领域有重要应用 [30][32][34] - FNO通过傅里叶变换处理数据,让神经算子运行速度成倍提升,被视为AI for Science领域的里程碑模型,李宗宜谷歌学术引用次数超过1.2万 [35][36] - 目前担任MIT博士后研究员,由何恺明指导,已获得纽约大学助理教授职位,将于明年秋季入职 [38][39] - 本科在圣路易斯华盛顿大学修读计算机科学与数学双学位,博士就读于加州理工学院,师从Anima Anandkumar和Andrew Stuart,博士期间连续三个暑期在英伟达实习 [41][42][44] 何恺明研究方向与团队建设 - 何恺明在2023年MIT求职演讲中明确指出AI for Science是其未来几年重点深耕的方向 [46] - 新成员胡珂雅和李宗宜的研究背景与AI for Science方向高度契合,加上此前成员,团队已集齐六位学生 [47][48][49] - 何恺明自2024年离职Meta加入MIT学术界,致力于推进AI基础研究和前沿突破 [52]
LSTM之父向何恺明开炮:我学生才是残差学习奠基人
量子位· 2025-10-19 14:10
残差学习技术发展脉络 - 残差学习思想最早可追溯至1991年,Sepp Hochreiter在其博士论文中首次系统性分析RNN梯度消失问题并提出循环残差连接解决方案[12][13] - 循环残差连接核心机制是使用权重严格为1.0的恒等激活单元,使误差信号在反向传播中保持恒定,避免梯度消失或爆炸[13][14] 权重接近1.0(如0.99)会导致误差信号在100个时间步后衰减至37%,而0.9权重会使信号衰减至0.0027%[15] - 1997年LSTM论文提出恒定误差轮盘(CECs)机制,通过权重为1.0的循环残差连接使误差在数百至数千时间步内不衰减,该论文成为20世纪引用最多的人工智能论文[18][19] 残差网络架构演进 - Highway网络于2015年5月首次实现上百层深度前馈网络训练,较传统20-30层网络深度提升10倍以上,其核心将LSTM门控残差思想引入前馈网络[23] - ResNet于2015年12月在ImageNet竞赛成功应用残差连接,其设计与展开的LSTM及初始化Highway网络高度相似,若将Highway网络门恒定设置为1.0即可得到纯残差网络ResNet[24] - LSTM与Highway网络分别奠定循环和前馈网络的深度训练基础,ResNet实质是1997年LSTM前馈变体的延续应用[26] 学术贡献归属争议 - Jürgen Schmidhuber认为残差学习成果完全归因于何恺明团队有失偏颇,强调其学生Sepp Hochreiter在1991年已提出核心思想[3][10] - 深度学习三巨头(Bengio、Hinton、LeCun)在Nature综述论文中大量引用自身成果却未提及Jürgen等人,引发长期学术争论[7][8] - Jürgen声称LSTM、ResNet、AlexNet、VGG Net、GAN及Transformer均受其实验室成果启发,但除LSTM外其他成果未获普遍认可[28][31]
任少卿加入中科大......
自动驾驶之心· 2025-09-20 13:35
任少卿职业动态 - AI领域专家任少卿开始在母校中国科学技术大学开班招生 [1] - 任少卿曾任Momenta联合创始人、蔚来汽车副总裁 [4] 任少卿学术背景 - 任少卿为07级中科大本硕博(微软亚洲研究院联合培养) [4] - 任少卿是ResNet和Faster R-CNN作者 [4] - 学术高被引超44万,是全球中国籍学者高被引第一 [4] - ResNet是21世纪全球最高被引论文 [4] - 曾获未来科学大奖-数学与计算机科学奖 [4] 招生信息 - 招生方向为AGI、世界模型、具身智能、AI4S等 [6] - 硕士、博士生都在招 [6] - 有推免资格的学生将于下周一(22日)开启紧急面试 [6]
任少卿在中科大招生了!硕博都可,推免学生下周一紧急面试
量子位· 2025-09-20 13:12
任少卿学术与职业背景 - 任少卿是计算机视觉与自动驾驶领域专家,为ResNet和Faster R-CNN的核心作者之一 [1][4][7][9] - ResNet是深度学习里程碑工作,解决了深度神经网络训练中的梯度消失难题,获得CVPR 2016最佳论文奖,被引用次数超过29万次 [7][8] - 其学术高被引超过44万,是全球中国籍学者高被引第一,ResNet是21世纪全球最高被引论文,2022年入选AI 2000榜单排名第十,2023年获未来科学大奖 [1][6] 在蔚来汽车的职业经历与技术贡献 - 任少卿于2020年加入蔚来汽车,担任智能驾驶研发副总裁,向CEO李斌直接汇报,后职权扩大至直接管理新设技术委员会并领导大模型部 [13][14] - 在蔚来期间主要负责城区领航辅助NOA的规模铺开和全域领航辅助NOP+功能的发布与迭代,主导推动"群体智能"数据驱动范式 [14] - 领导团队开发了NIO世界模型,该模型具备想象重建与想象推演能力,可生成高保真平行世界场景并进行长时序推演超过2分钟 [14][15] 中国科学技术大学招生信息 - 任少卿目前在中国科学技术大学招收硕士与博士生,招生方向为AGI、世界模型、具身智能、AI4S等 [1][2][3] - 具有推免资格的学生可参与紧急面试,有兴趣的学生可发送简历至指定邮箱进行咨询 [3][16]
科学界论文高引第一人易主,Hinton、何恺明进总榜前五!
机器人圈· 2025-08-27 17:41
学术引用排名分析 - Yoshua Bengio总被引用量达973,655次 近五年引用量698,008次 位列全球科学家首位[1] - 其2014年发表的生成对抗网络论文引用量突破100,904次 2015年深度学习论文引用量达100,061次[1][2] - Geoffrey Hinton总被引用量超95万次 近五年引用量57万次 排名第二[3] - Hinton参与的AlexNet论文引用量达181,968次 为计算机视觉领域突破性研究[3][5] 跨学科引用表现 - 医学领域研究者Ahmedin Jemal总引用量924,788次 近五年引用量520,211次 排名第三[7] - 数学与生物学交叉领域研究者Eric Lander总引用量737,656次 近五年引用量247,907次 排名第四[7] - 何恺明总引用量735,881次 其2016年ResNet论文引用量达290,239次 排名第五[9] - ResNet被Nature评为21世纪被引量最多论文 引用范围在103,756-254,074次之间[9][10] 高影响力论文特征 - AlexNet论文引用量181,968次 推动深度学习在计算机视觉应用[3][5] - 生成对抗网络与深度学习论文引用量均超10万次 形成持续学术影响[1][2] - 全球科学家排名涵盖2,626,749名研究者 涉及221个学科领域[1] - Ilya Sutskever总引用量超67万次 单篇最高引用18万次 排名第七[10]