人工蜂群思维
搜索文档
NeurIPS 2025放榜:阿里Qwen门控注意力获最佳论文,何恺明Faster R-CNN获时间检验奖
量子位· 2025-11-27 11:00
最佳论文奖核心观点 - NeurIPS 2025最佳论文奖共评选出4篇获奖论文,其中3篇为华人一作,涵盖大语言模型多样性、注意力机制优化、强化学习深度扩展等前沿方向[1] - 另有3篇论文获得Runner-up奖项,研究领域包括扩散模型理论、自监督强化学习、在线学习理论等突破性进展[2] - 阿里Qwen团队提出的门控注意力机制论文获奖,该技术已应用于Qwen3-Next模型[24] 人工蜂群思维论文 - 提出"人工蜂群思维"概念,揭示大语言模型存在显著模型内重复和模型间同质性问题[7][8] - 实验显示超60%的模型响应相似度超过0.8,即使采用min-p等解码策略仍无法有效提升多样性[8] - 构建INFINITY-CHAT数据集,包含26K真实世界开放式查询和31250条人类标注,形成首个系统评估开放式查询的资源[12] - 研究发现现有大模型评估系统与人类评分校准度较低,难以捕捉人类多元偏好[14] 门控注意力机制论文 - 阿里Qwen团队提出在缩放点积注意力后应用头特定sigmoid门控能持续提升模型性能[18] - 门控机制将基线模型中平均46.7%指向首个token的注意力占比降至4.8%,显著缓解注意力沉陷问题[20] - 在RULER基准上实现超10分的增益,支持更大学习率和批次大小的稳定训练[20][24] - 实验证实元素级门控最优,头特定门控比头共享更有效,sigmoid激活函数表现最佳[21] 深度强化学习论文 - 将网络深度提升至1024层,相比传统2-5层浅层架构实现2-50倍性能提升[28][29] - 在10个任务中的8个超越SAC、TD3+HER等主流基线算法,半数环境实现超20倍性能飞跃[29] - 深度扩展触发质的行为变化,达到临界深度时智能体习得翻墙、坐姿移动等全新技能[31] - 深度扩展比宽度扩展更具计算效率,参数与计算量增长更平缓[34] 扩散模型理论论文 - 识别出泛化时间和记忆化时间两个关键训练时间尺度,泛化时间与训练集大小无关[40] - 记忆化时间随训练集大小呈线性增长,形成随训练集规模扩大而拓宽的泛化窗口[40] - 实验显示不同训练集大小下泛化时间基本稳定,模型容量影响两个时间尺度出现早晚[44] - 理论分析表明过参数化场景下会出现分离的特征值区间,分别对应泛化和记忆化阶段[45] 时间检验奖论文 - Faster R-CNN通过区域提议网络实现端到端接近实时的目标检测,帧率达到5fps[4][53] - 核心创新是引入区域提议网络,仅需300个提议区域即可优于传统Selective Search的2000个提议性能[52][53] - 提议计算耗时仅10ms,在PASCAL VOC和MS COCO等数据集上取得当时最先进检测精度[53] - 该框架的共享特征和锚点机制深刻影响了后续3D目标检测、实例分割等计算机视觉领域发展[55]