深度学习
搜索文档
市场舆情监测供应厂家推荐:如何选择高性价比服务商
搜狐财经· 2025-09-18 10:55
行业背景与需求 - 市场舆情监测是企业决策的重要工具,关乎品牌声誉维护和行业趋势把握 [1] - 在纷繁复杂的网络环境中,选择专业可靠的服务商是企业关注焦点 [1] - 技术实力、数据覆盖范围和服务模式灵活性是选择服务商的关键考量维度 [1] 公司技术实力 - 公司为国家高新技术企业,深耕大数据领域多年,形成独特技术壁垒 [3] - 研发团队专注于数据挖掘、机器学习、自然语言处理与深度学习 [3] - 构建覆盖全国的监测网络,实现对互联网信息的高效采集与分析 [3] - 依托自建IDC数据中心,结合全国运营商资源,在国内外部署大量数据探测节点 [3] - 立体化数据采集体系使监测结果具备广泛覆盖面和高精确度 [3] - 智能分析引擎能捕捉金融领域市场情绪的细微变化信号 [3] 服务模式与解决方案 - 将大数据技术与移动互联网应用深度融合,推出多款定制化解决方案 [4] - 构建用户体检监测云服务中心,将数据转化为直观的可视化报告 [4] - 通过持续优化数据大模型,增强海量信息的解析能力 [4] - 技术积累帮助企业识别潜在风险并挖掘隐藏市场机遇 [4] - 在政务评估领域提供数据支持方案,帮助政府部门实现科学决策 [4] 公司发展优势 - 作为专精特新企业,始终保持对前沿技术的敏感度 [4] - 从最初网站数据采集发展到构建完整智能分析体系 [4] - 技术迭代速度快,行业深耕程度值得肯定 [4] - 持续创新能力使企业在快速变化的市场环境中拥有可靠技术支撑 [4]
谷歌反垄断案折射搜索行业变革
经济日报· 2025-09-15 05:46
近日,谷歌在一场持续5年的反垄断案中取得阶段性胜利,成功避免被强制拆分。令人关注的是,在这 场危机中"救局"的,恰恰是被视为谷歌竞争对手的OpenAI等生成式人工智能(AI)公司。谷歌一案的 判决让业界更清晰地看到,AI正在重塑全球搜索引擎市场的竞争格局。 传统搜索引擎还掌握着生成式AI发展的关键资源——算力与数据。例如,OpenAI训练ChatGPT需依赖 庞大算力,而谷歌云位居全球前三;模型优化需要海量数据,其中大量仍存储于谷歌服务器中。而这些 AI公司若想跳过这一枷锁,自建数据索引库,不仅技术门槛高,也意味着巨额成本。 无论如何,随着AI技术不断发展,全球搜索业务已站在转型的十字路口。新兴AI搜索能否突破成本与 技术壁垒,开辟新格局?传统搜索巨头又能否摆脱固有商业模式的束缚,成功实现AI化转型?答案尚 未揭晓。可以确定的是,AI不再只是技术革命的推动者,也正在成为塑造市场竞争与监管走向的关键 力量。谷歌一案的判决,被业内称为"本世纪科技行业最具深远影响的法院裁决之一",将为同样面临反 垄断诉讼的Meta、亚马逊和苹果提供重要参考和借鉴。 (文章来源:经济日报) 谷歌能够避免被拆分,生成式AI意外成了"救 ...
斯坦福AI能精准预测死亡,玄学还是大数据?
虎嗅· 2025-09-11 21:04
AI医疗预测技术突破 - 斯坦福大学医生利用深度学习技术预测临终患者死亡时间 准确率从40%提升至80% [1] - 丹麦科学家使用全国596万人数据构建280维标签模型 预测大事件和死亡日期准确率达78% [1] 技术应用限制 - 预测算法因存在被保险公司滥用的潜在风险而未公开 [1]
AI+HI系列:DecompGRNv1:基于线性RNN的端到端模型初探
华创证券· 2025-09-05 16:12
量化模型与构建方式 1. 模型名称:RNN-LIN - 模型构建思路:基于线性RNN构建的简化时序模型,移除非线性激活函数以提升训练效率并减少参数量[11][12] - 模型具体构建过程: 输入序列为股票日频特征(高、开、低、收、均价、成交量)的150日时序数据[23] 模型结构包含遗忘门和输出门,使用sigmoid激活函数控制门控值在(0,1)范围内,隐状态迭代时不使用非线性激活函数[20] 具体计算公式如下: $$h_{t}=f_{t}\otimes h_{t-1}+(1-f_{t})\otimes c_{t}$$ $$y_{t}=o_{t}\otimes h_{t}$$ $$f_{t}=Sigmoid(x_{t}W_{f})$$ $$o_{t}=Sigmoid(x_{t}W_{o})$$ $$c_{t}=SiLU(x_{t}W_{c})$$ 其中$h_t$表示隐状态,$y_t$表示输出,$f_t$为遗忘门,$o_t$为输出门,$c_t$为候选状态,$W_f$、$W_o$、$W_c$为可学习参数矩阵[20] 参数量相比GRU模型减少约50%[20] - 模型评价:训练效率优于GRU,但性能略逊于GRU基线模型[22][47] 2. 模型名称:RNN-LIN-GLU - 模型构建思路:在线性RNN基础上耦合门控线性单元(GLU)以提升模型表达能力[21][22] - 模型具体构建过程: 在RNN-LIN层后叠加GLU FFN模块组成block[21] GLU FFN的计算公式为: $$FFNSwiGLU(x,W,V,W_{2})=(Swish(xW)\otimes xV)W_{2}$$ 其中$W$、$V$、$W_2$为可学习参数矩阵[21] 其他构建过程与RNN-LIN相同[21] - 模型评价:GLU模块对RNN-LIN的性能提升效果优于对GRU的提升[45] 3. 模型名称:DecompGRN - 模型构建思路:基于线性RNN改进的时序-截面端到端模型,将截面信息直接整合进RNN门控单元[2][49] - 模型具体构建过程: 采用两层RNN结构[50] 第一层线性RNN输出每个时间步的个股表征,使用市值作为分组特征进行20分组,计算股票分组去均值结果,得到包含截面信息的个股表征[50] 第二层构建线性RNN变体,将截面信息和时序融合共同输入遗忘门和输出门[50] 使用时序趋势分解模块将初始输入拆分为趋势与残差分量[89] 趋势分量输入1D卷积+RNN实现时序编码,残差分支使用深度可分离卷积[94][95] 最终将趋势和残差分支结果相加合并,输入第二个时序RNN编码器,取最后一个时间步输出通过线性预测头得到股票得分[96] 参数量仅为GRU基线模型的43%[74] - 模型评价:性能超越基线GRU模型,模型逻辑与参数量实现双重简化[2][74] 模型的回测效果 1. RNN-LIN模型 - 中证全指:RankIC 0.13,RankICIR 1.08,IC胜率 0.88[37] - 沪深300:RankIC 0.10,RankICIR 0.62,IC胜率 0.74[37] - 中证500:RankIC 0.09,RankICIR 0.71,IC胜率 0.78[37] - 中证1000:RankIC 0.12,RankICIR 0.96,IC胜率 0.86[37] 2. RNN-LIN-GLU模型 - 中证全指:RankIC 0.13,RankICIR 1.14,IC胜率 0.89[37] - 沪深300:RankIC 0.10,RankICIR 0.63,IC胜率 0.73[37] - 中证500:RankIC 0.10,RankICIR 0.74,IC胜率 0.79[37] - 中证1000:RankIC 0.12,RankICIR 1.01,IC胜率 0.87[37] 3. DecompGRN模型 - 中证全指:RankIC 0.141,RankICIR 1.26,IC胜率 0.89[55][89] - 沪深300:RankIC 0.099,RankICIR 0.65,IC胜率 0.74[55][89] - 中证500:RankIC 0.098,RankICIR 0.77,IC胜率 0.78[55][89] - 中证1000:RankIC 0.127,RankICIR 1.08,IC胜率 0.88[55][89] 量化因子与构建方式 (报告中未明确提及独立的量化因子构建,主要关注端到端模型) 因子的回测效果 (报告中未提供独立因子的测试结果) 分组测试绩效统计 1. RNN-LIN模型(层数1) - 中证全指:年化收益率42.59%,夏普比率1.46,最大回撤-36.71%,超额年化42.05%,平均单边换手0.81[42] - 沪深300:年化收益率28.59%,夏普比率1.38,最大回撤-22.09%,超额年化28.67%,平均单边换手0.66[42] - 中证500:年化收益率23.68%,夏普比率1.02,最大回撤-34.63%,超额年化23.95%,平均单边换手0.76[42] - 中证1000:年化收益率32.81%,夏普比率1.20,最大回撤-35.43%,超额年化33.72%,平均单边换手0.77[42] 2. RNN-LIN-GLU模型(层数1) - 中证全指:年化收益率48.73%,夏普比率1.60,最大回撤-35.33%,超额年化48.19%,平均单边换手0.81[42] - 沪深300:年化收益率29.92%,夏普比率1.38,最大回撤-23.62%,超额年化30.00%,平均单边换手0.65[42] - 中证500:年化收益率24.45%,夏普比率1.03,最大回撤-39.60%,超额年化24.72%,平均单边换手0.75[42] - 中证1000:年化收益率34.47%,夏普比率1.24,最大回撤-34.51%,超额年化35.38%,平均单边换手0.76[42] 3. DecompGRN模型 - 中证全指:年化收益率57.68%,夏普比率1.71,最大回撤-34.69%,超额年化56.18%,平均单边换手0.79[57][89] - 沪深300:年化收益率31.69%,夏普比率1.42,最大回撤-26.88%,超额年化31.00%,平均单边换手0.65[57][89] - 中证500:年化收益率26.90%,夏普比率1.10,最大回撤-37.82%,超额年化26.13%,平均单边换手0.74[57][89] - 中证1000:年化收益率40.35%,夏普比率1.37,最大回撤-35.51%,超额年化40.03%,平均单边换手0.74[57][89] 指增组合测试结果 DecompGRN模型指增表现 - 沪深300指增:年化超额收益10.24%,跟踪误差5.07,超额夏普1.95,超额最大回撤-8.12%,2025年累计超额3.93%[75][85][89] - 中证500指增:年化超额收益10.05%,跟踪误差6.10,超额夏普1.60,超额最大回撤-7.15%,2025年累计超额6.72%[75][85][89] - 中证1000指增:年化超额收益19.58%,跟踪误差6.75,超额夏普2.68,超额最大回撤-9.11%,2025年累计超额18.26%[75][85][89]
守护我们的专注力(金台随笔)
人民日报· 2025-09-05 06:57
数字时代注意力经济现象 - 数字资源易得性导致专注力下降 表现为读不进书 看不下完整电影 无法深度思考[1] - 生活快节奏消磨精神能量 空闲时间倾向于消费无需动脑的内容[1] - 文化体验与自我提升存在知行差距 多数人陷入知易行难困境[1] 专注力重建方法论 - 需改变功利心态 停止过度追求即时回报 才能沉浸过程本身[2] - 3分钟电影速看无法欣赏镜头艺术 5分钟名著速读难以体会文字意蕴[2] - 深度学习中积累的思考习惯与从容气质是时间的长期馈赠[2] 好奇心触发机制 - 好奇心触发连锁反应:产生疑问 激发兴趣 探求原因 深究结果[3] - 创造触发时刻需脱离数字设备 通过人际交流 自然接触 文物观览获得新知[3] - 专注力是由内而外的思维沉浸 非依靠外部自律维持[3] 数字文化资源整合 - 数字技术将海量文化资源编织入日常生活[4] - 需解决注意力失焦问题 培养信息甄别与批判思考能力[4] - 保持文化敬畏心才能使数字文化接触成为精神滋养[4]
刚刚,李飞飞主讲的斯坦福经典CV课「2025 CS231n」免费可看了
机器之心· 2025-09-04 17:33
课程概述 - 斯坦福大学2025年春季《CS231n:深度学习与计算机视觉》课程正式上线,专注于深度学习架构细节及视觉识别任务[1] - 课程重点围绕图像分类、定位和检测等端到端模型学习,特别是图像分类领域[2] - 课程为期10周,学生将实现并训练神经网络,深入理解计算机视觉前沿研究[3] - 结业时学生可在真实世界视觉问题上训练和应用数百万参数的神经网络[4] - 通过实践作业和课程项目,学生掌握深度学习工具集及深度神经网络训练与微调的工程技巧[5] 讲师团队 - 李飞飞担任主讲人之一,为斯坦福教授、World Labs CEO,领导创建ImageNet项目并推动深度学习在计算机视觉领域的革命性突破,近期研究方向为空间智能与世界模型[6] - Ehsan Adeli为斯坦福大学精神病学与行为科学系及计算机科学系助理教授,研究方向包括计算机视觉、计算神经科学、医学影像分析等[6] - Justin Johnson为密歇根大学助理教授及FAIR研究科学家,研究兴趣包括视觉推理、图像生成和3D推理[6] - Zane Durante为斯坦福大学三年级博士生,导师为李飞飞和Ehsan Adeli,研究方向包括多模态视觉理解及人工智能在医疗健康中的应用[7] 课程资源 - 课程全部18个视频已在Youtube免费开放,第一和最后一堂课由李飞飞讲授[12] - Youtube播放列表包含18个视频,总观看次数达984次,其中第一讲观看次数为7410次,第二讲为1057次,第三讲为706次,第四讲为442次[12] - 视频地址为https://www.youtube.com/playlist?list=PLoROMvodv4rOmsNzYBMe0gJY2XS8AQg16[12] 课程内容目录 - 课程内容涵盖线性分类器图像分类、正则化与优化、神经网络与反向传播、卷积神经网络图像分类[16] - 包括卷积神经网络训练与架构、循环神经网络、注意力机制与Transformers、目标识别与图像分割[16] - 涉及视频理解、大规模分布式训练、自监督学习、生成式模型、3D视觉、视觉与语言、机器人学习及以人为中心的人工智能[16]
海洋灾害预警数据集入选典型案例
中国自然资源报· 2025-09-04 10:09
此外,项目还建立了覆盖"实时感知—精准预报—生态保护—智能防控"全周期的数据管理机制,目 前已应用于10余类海洋灾害防治业务场景。这一成果不仅在技术层面实现自主可控的海洋预报创新,更 通过多地多单位协同和数据共享机制,推动海洋数据资源的高效流通与业务化应用,为海洋防灾减灾提 供"海南智慧"和"数据样板"。 该数据集是"海南省海洋灾害综合防治能力建设项目"成果之一,该项目业主单位为海南省海洋厅, 于2025年7月竣工并通过验收,转入业务化运行阶段。 8月28日~30日,在贵阳举办的2025中国国际大数据产业博览会(数博会)上,国家数据局正式发 布高质量数据集典型案例,"海南省海洋灾害多维立体监测与智能预报预警高质量数据集"(以下简称数 据集)成功入选。 据了解,数据集聚焦台风、风暴潮、赤潮、海浪、裂流等多类海洋灾害,通过构建多维立体观测与 智能预报预警体系,有效提升海洋灾害预报的准确性、时效性与精细化水平。项目整合GPU-CPU(图 像处理器-中央处理器)异构计算、深度学习与人工智能模型,建立覆盖海南沿海的风、浪、流、风暴 潮等要素的预报模式,形成约9.6TB(太字节)高质量数据,直接服务于海洋预报警报业务。 ...
AI教父Hinton诺奖演讲首登顶刊,拒绝公式,让全场秒懂「玻尔兹曼机」
36氪· 2025-09-03 19:29
霍普菲尔德网络与玻尔兹曼机原理 - 霍普菲尔德网络由二进制神经元构成,神经元间通过对称加权连接,其全局状态被称为“配置”,并由“优度”衡量,而能量是优度的负值[5][6] - 网络通过每个神经元的局部计算来降低能量,最终稳定在能量最低点,但可能存在多个能量最低点,具体停留位置取决于起始状态和神经元更新序列[6][8] - 该网络可将能量最低点与记忆关联,实现“内容可寻址存储”,即输入不完整的记忆片段后,网络能通过应用决策规则补全完整记忆[11][12] 从记忆存储到感官输入解释 - 网络被扩展用于构建对感官输入的解释,而不仅是存储记忆,通过将网络分为“可见神经元”和“隐藏神经元”,网络的配置能量代表了该解释的劣度,目标是获得低能量的解释[13][14][15] - 以内克尔立方体为例,网络通过设置连接强度,可以形成两个稳定的状态,分别对应图像的三维诠释(凸面体和凹面体),体现了感知光学原理[19][23][25] 解决搜索与学习问题的方法 - 针对网络可能陷入局部最优的“搜索问题”,引入带有噪声的“随机二进制神经元”,通过概率性决策让神经网络能够从较差的解释“爬坡”到更好的解释[27] - 通过随机更新隐藏神经元,网络会趋近于“热平衡”,此时隐藏神经元的状态构成对输入的一种诠释,低能量状态出现的概率更高,遵循玻尔兹曼分布[29][30][31] - 针对“学习问题”,Hinton与Sejnowski在1983年提出了玻尔兹曼机学习算法,该算法包含“清醒阶段”(向网络呈现真实图像并增加同时激活神经元的连接权重)和“睡眠阶段”(让网络自由“做梦”并减少同时激活神经元的连接权重)[36][38] 玻尔兹曼机的核心创新与演变 - 玻尔兹曼机的核心创新在于权重调整基于两种相关性差异:网络在“清醒”时与“做梦”时两个神经元共同激活频率的差异,这与反向传播算法依赖前向和反向通路传递不同信息的方式截然不同[41][42][44] - 由于达到热平衡速度缓慢,通过消除隐藏单元间的连接发展出受限玻尔兹曼机(RBM),并引入“对比散度”方法加速学习,该方法通过将数据输入可见单元、并行更新隐藏神经元、重构可见单元等步骤实现[44][46][48] - RBM在实践中取得成果,例如Netflix公司曾使用RBM根据用户偏好推荐电影并赢得预测大赛[50] 堆叠RBM与深度学习突破 - 为构建多层特征检测器,2006年提出“堆叠RBM”方法,通过将第一个RBM的隐藏层激活模式作为数据训练下一个RBM,以此类推,创建出特征的层级结构和越来越抽象的表示[50][51][52][53] - 堆叠完成后添加最终层进行监督学习(如图像分类),这使得神经网络学习速度远超随机初始化,并且泛化能力更好,因为大部分学习在无监督情况下进行[55] - 在2006-2011年期间,堆叠RBM被用于预训练前馈神经网络再进行反向传播微调,2009年其被证明在语音识别中效果显著,2012年基于此的系统在谷歌安卓设备上大幅改善了语音识别性能[56][58] 玻尔兹曼机的历史角色与未来展望 - 玻尔兹曼机被比喻为“历史的酶”,它催化了深度学习的突破,一旦证明了深度神经网络的潜力,研究人员开发出其他方法后,它便逐渐退出主流[58] - 利用“睡眠”阶段进行“反学习”的算法被认为更具生物学合理性,可能避免反向传播的非对称通路,未来在理解大脑如何学习时,“睡眠”中的“反学习”可能仍是关键一环[59]
语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
机器之心· 2025-09-03 12:33
语音分离技术综述 - 清华大学、青海大学、南京大学、南方科技大学、中国科学院大学、字节跳动的研究者全面调研了语音分离领域 对200余篇代表性论文进行了系统归纳和分析 涵盖深度学习方法、模型架构、研究主题、评测指标、数据集、工具平台、模型效果比较和未来挑战等多个维度[2] 问题定义 - 语音分离任务根据混合说话人数量是否已知分为已知人数分离和未知人数分离两类 已知人数分离可通过深度聚类或排列不变训练等策略解决输出顺序不确定的排列歧义问题 未知人数分离需要模型动态决定输出通道数并判断终止时机 面临说话人排列组合随人数增加呈指数扩展的挑战[6] 学习范式 - 有监督学习利用配对的混合音频及纯净源音频进行训练 采用深度聚类方法将时频单元映射到高维嵌入空间再聚类生成声源掩膜 或使用排列不变训练方法对输出标签进行动态匹配只保留误差最小的排列来更新模型[10] - 无监督学习不依赖配对的干净源参考 探索利用未标注的混合语音直接训练分离模型 MixIT方法通过将两段混合语音再混合作为输入 让模型输出更多分量并设计仅依赖输入混合物的损失函数[12] 模型架构 - 典型架构包含编码器、分离网络和解码器 基于RNN的模型利用循环神经网络捕获语音信号中的长时依赖关系 Dual-Path RNN通过划分长序列为短块并在块内和块间双路径循环处理高效建模长序列[17] - 基于CNN的模型利用卷积神经网络强大的局部特征提取能力 Conv-TasNet等时域卷积模型通过空洞卷积技术兼顾短时细节和长程依赖 基于自注意力的模型引入全局序列建模能力 SepFormer等Transformer架构进一步刷新了分离性能[17] - 音频重构策略包括掩膜估计和直接映射两类 掩膜方法输出每个源的时间频率掩膜乘以混合后重建源信号 直接映射方法直接输出各源的波形或特征表示避免误差传播[18] 评测指标 - 主观评价指标包括MOS(评分范围1-5) 直观贴近人耳体验但难以大规模获取[20] - 客观评价指标包括SDR(单位dB)、SIR(单位dB)、SAR(单位dB)、SISDR(单位dB)、PESQ(窄带和宽带范围-0.5~4.5)、STOI(范围0~1)、ESTOI(范围0~1)、DNSMOS(范围1~5)和SIGMOS(范围1~5)等 各自侧重不同方面需要结合使用[20] 数据集 - 单通道数据集包括WSJ0-2mix(2016年)、WSJ0-3mix(2016年)、WHAM!(2019年)、WHAMR!(2020年)、LibriMix(2020年)、DNS Challenge(2021年)、REAL-M(2022年)、Lombard-GRID(2024年)、LibriheavyMix(2024年)、LRS2-2Mix(2024年)和SonicSet(2024年)等[23] - 多通道数据集包括SMS-WSJ(2019年)、LibriCSS(2020年)、Kinect-WSJ(2021年)和AISHELL-4(2021年)等[23] 模型性能 - 在WSJ0-2mix数据集上 早期模型如DPCL和uPIT-BLSTM达到约10 dB的SDR Conv-TasNet等端到端模型将性能推升到12 dB以上 最近两三年SepFormer、DPRNN系列和双路Transformer等先进架构将SDR提升到20 dB左右[24] - 在含噪声混响的WHAM!和WHAMR!数据集上 模型性能相对无噪条件下降明显 说明噪声鲁棒性仍是挑战[25] 工具平台 - 开源工具包括nussl(2018年 Python语言 PyTorch后端 MIT许可证)、ONSSEN(2019年 Python语言 PyTorch后端 GPL-3.0许可证)、ESPNet-SE(2021年 Python语言 PyTorch后端 Apache-2.0许可证)、Asteroid(2020年 Python语言 PyTorch后端 MIT许可证)、SpeechBrain(2021年 Python语言 PyTorch后端 Apache-2.0许可证)、ClearerVoice-Studio(2024年 Python语言 PyTorch后端 Apache-2.0许可证)和WeSep(2024年 Python/C++语言 PyTorch后端 Apache-2.0许可证)等[29] 未来挑战 - 长时段音频处理需要在保证分离连续性的同时控制模型复杂度和内存开销 移动端和嵌入式应用要求模型具备较小参数量和计算量[32] - 因果语音分离要求算法只能利用当前及过去帧的信息不能窥视未来 对模型延时和缓存机制提出严格要求[32] - 生成式方法包括生成对抗网络和扩散模型开始用于语音分离 在弱监督或无监督场景下展示出潜力[32] - 预训练技术如大规模自监督预训练wav2vec 2.0等可提供强大通用特征 在低资源分离任务上显著提升性能[32] - 目标说话人提取利用已知的目标说话人特征从混合中提取该说话人语音 需要高效利用说话人嵌入并与分离网络融合[33] - 语音分离正日益与语音识别、说话人识别/分离、语音增强等任务结合 形成端到端的联合优化框架[33]
Scaling Laws起源于1993年?OpenAI总裁:深度学习的根本已揭秘
具身智能之心· 2025-09-03 08:03
扩展定律的历史溯源 - 扩展定律(Scaling Laws)的核心观点是将模型性能与算力等资源投入相关联 成为构建先进大模型的重要参考标尺[2] - 康奈尔大学博士生Jack Morris指出扩展定律的真正探索者是贝尔实验室 其研究可追溯至1993年[3] - OpenAI联合创始人Greg Brockman认为贝尔实验室的研究结果跨越多个数量级和数十年时间 揭示了深度学习的根本[7] 贝尔实验室的扩展定律研究 - 1993年NeurIPS论文提出通过预测分类器性能来优化算力分配 避免高成本训练过程[12] - 研究证明模型错误率与训练数据量在对数曲线上呈现规律性 并适用于单层和多层网络[12] - 实验显示经过12000种模式训练后 新网络性能优于旧网络 证明模型规模扩大可提升智能水平[16] 论文作者贡献 - 一作Corinna Cortes论文引用量达104,248次 与Vladimir Vapnik共同提出支持向量机(引用77,000+次)并参与构建MNIST数据集[19][21] - 二作Lawrence D Jackel曾与Yann LeCun合作完成高引用研究 包括反向传播论文[23] - 三作Sara A Solla最高引用论文《Optimal brain damage》运用信息论优化神经网络规模[25] - 四作Vladimir Vapnik引用量335,349次 提出统计学习理论VC理论[27] - 五作John S Denker涉足多个领域 包括量子物理 计算机安全及神经网络 并拥有多项专利[29][30] 扩展定律的早期探索 - 心理学领域最早研究学习曲线概念[36] - Vladimir Vapnik在1960年代已研究样本大小的扩展定律[37] - Frank Rosenblatt在1958年感知器论文中清晰描述学习曲线[38] - 日本学者甘利俊一1992年论文证明学习曲线渐进行为 显示预测熵收敛规律与参数数量相关[40][41] 研究脉络总结 - 扩展定律的发展是跨学科跨时代的累积过程 从心理学 感知器到系统化研究 最终通过大规模实验验证[43] - 该定律并非突发顿悟 而是数十年理论与实践反复印证的结果 体现科学探索的长期积累[43]