深度学习

搜索文档
市场舆情监测供应厂家推荐:如何选择高性价比服务商
搜狐财经· 2025-09-18 10:55
当谈及数据监测能力时,一家企业的技术储备往往能决定其服务深度。以北京蓝太平洋科技股份有限公司为例,这家新 三板挂牌的科技企业深耕大数据领域多年,凭借国家高新技术企业的资质,形成了独特的技术壁垒。其研发团队不仅专 注于数据挖掘和机器学习,更在自然语言处理与深度学习方向持续突破。通过构建覆盖全国的监测网络,蓝太平洋实现 了对互联网信息的高效采集与分析,这种布局让企业能够第一时间获取市场动态。 数据的时效性与准确性是舆情监测的核心价值。蓝太平洋依托自建的IDC数据中心,结合全国各主要运营商的资源,在 国内外部署了大量数据探测节点。这种立体化的数据采集体系,使得监测结果既具备广泛的覆盖面,又能保持较高的精 确度。对于需要实时响应的行业而言,这种能力尤为重要。例如在金融领域,市场情绪的细微变化可能预示着重大趋 势,而蓝太平洋的智能分析引擎恰好能捕捉这些信号。 服务模式的创新同样值得关注。不同于传统服务商的单一化操作,蓝太平洋将大数据技术与移动互联网应用深度融合, 推出了多款定制化解决方案。其构建的用户体检监测云服务中心,能够将数据转化为直观的可视化报告,这种将复杂技 术转化为实用工具的能力,让非技术背景的管理者也能快速 ...
谷歌反垄断案折射搜索行业变革
经济日报· 2025-09-15 05:46
近日,谷歌在一场持续5年的反垄断案中取得阶段性胜利,成功避免被强制拆分。令人关注的是,在这 场危机中"救局"的,恰恰是被视为谷歌竞争对手的OpenAI等生成式人工智能(AI)公司。谷歌一案的 判决让业界更清晰地看到,AI正在重塑全球搜索引擎市场的竞争格局。 传统搜索引擎还掌握着生成式AI发展的关键资源——算力与数据。例如,OpenAI训练ChatGPT需依赖 庞大算力,而谷歌云位居全球前三;模型优化需要海量数据,其中大量仍存储于谷歌服务器中。而这些 AI公司若想跳过这一枷锁,自建数据索引库,不仅技术门槛高,也意味着巨额成本。 无论如何,随着AI技术不断发展,全球搜索业务已站在转型的十字路口。新兴AI搜索能否突破成本与 技术壁垒,开辟新格局?传统搜索巨头又能否摆脱固有商业模式的束缚,成功实现AI化转型?答案尚 未揭晓。可以确定的是,AI不再只是技术革命的推动者,也正在成为塑造市场竞争与监管走向的关键 力量。谷歌一案的判决,被业内称为"本世纪科技行业最具深远影响的法院裁决之一",将为同样面临反 垄断诉讼的Meta、亚马逊和苹果提供重要参考和借鉴。 (文章来源:经济日报) 谷歌能够避免被拆分,生成式AI意外成了"救 ...
斯坦福AI能精准预测死亡,玄学还是大数据?
虎嗅· 2025-09-11 21:04
AI都能算命了?斯坦福的医生用深度学习预测临终患者的死亡时间,准确率从40%飙到80%,比老中医 还准。丹麦科学家用全国596万人的280维标签,AI甚至能预测大事件和死亡日期,准确率高达78%。但 这玩意太吓人,担心保险公司滥用,算法不敢公开。 ...
AI+HI系列:DecompGRNv1:基于线性RNN的端到端模型初探
华创证券· 2025-09-05 16:12
量化模型与构建方式 1. 模型名称:RNN-LIN - 模型构建思路:基于线性RNN构建的简化时序模型,移除非线性激活函数以提升训练效率并减少参数量[11][12] - 模型具体构建过程: 输入序列为股票日频特征(高、开、低、收、均价、成交量)的150日时序数据[23] 模型结构包含遗忘门和输出门,使用sigmoid激活函数控制门控值在(0,1)范围内,隐状态迭代时不使用非线性激活函数[20] 具体计算公式如下: $$h_{t}=f_{t}\otimes h_{t-1}+(1-f_{t})\otimes c_{t}$$ $$y_{t}=o_{t}\otimes h_{t}$$ $$f_{t}=Sigmoid(x_{t}W_{f})$$ $$o_{t}=Sigmoid(x_{t}W_{o})$$ $$c_{t}=SiLU(x_{t}W_{c})$$ 其中$h_t$表示隐状态,$y_t$表示输出,$f_t$为遗忘门,$o_t$为输出门,$c_t$为候选状态,$W_f$、$W_o$、$W_c$为可学习参数矩阵[20] 参数量相比GRU模型减少约50%[20] - 模型评价:训练效率优于GRU,但性能略逊于GRU基线模型[22][47] 2. 模型名称:RNN-LIN-GLU - 模型构建思路:在线性RNN基础上耦合门控线性单元(GLU)以提升模型表达能力[21][22] - 模型具体构建过程: 在RNN-LIN层后叠加GLU FFN模块组成block[21] GLU FFN的计算公式为: $$FFNSwiGLU(x,W,V,W_{2})=(Swish(xW)\otimes xV)W_{2}$$ 其中$W$、$V$、$W_2$为可学习参数矩阵[21] 其他构建过程与RNN-LIN相同[21] - 模型评价:GLU模块对RNN-LIN的性能提升效果优于对GRU的提升[45] 3. 模型名称:DecompGRN - 模型构建思路:基于线性RNN改进的时序-截面端到端模型,将截面信息直接整合进RNN门控单元[2][49] - 模型具体构建过程: 采用两层RNN结构[50] 第一层线性RNN输出每个时间步的个股表征,使用市值作为分组特征进行20分组,计算股票分组去均值结果,得到包含截面信息的个股表征[50] 第二层构建线性RNN变体,将截面信息和时序融合共同输入遗忘门和输出门[50] 使用时序趋势分解模块将初始输入拆分为趋势与残差分量[89] 趋势分量输入1D卷积+RNN实现时序编码,残差分支使用深度可分离卷积[94][95] 最终将趋势和残差分支结果相加合并,输入第二个时序RNN编码器,取最后一个时间步输出通过线性预测头得到股票得分[96] 参数量仅为GRU基线模型的43%[74] - 模型评价:性能超越基线GRU模型,模型逻辑与参数量实现双重简化[2][74] 模型的回测效果 1. RNN-LIN模型 - 中证全指:RankIC 0.13,RankICIR 1.08,IC胜率 0.88[37] - 沪深300:RankIC 0.10,RankICIR 0.62,IC胜率 0.74[37] - 中证500:RankIC 0.09,RankICIR 0.71,IC胜率 0.78[37] - 中证1000:RankIC 0.12,RankICIR 0.96,IC胜率 0.86[37] 2. RNN-LIN-GLU模型 - 中证全指:RankIC 0.13,RankICIR 1.14,IC胜率 0.89[37] - 沪深300:RankIC 0.10,RankICIR 0.63,IC胜率 0.73[37] - 中证500:RankIC 0.10,RankICIR 0.74,IC胜率 0.79[37] - 中证1000:RankIC 0.12,RankICIR 1.01,IC胜率 0.87[37] 3. DecompGRN模型 - 中证全指:RankIC 0.141,RankICIR 1.26,IC胜率 0.89[55][89] - 沪深300:RankIC 0.099,RankICIR 0.65,IC胜率 0.74[55][89] - 中证500:RankIC 0.098,RankICIR 0.77,IC胜率 0.78[55][89] - 中证1000:RankIC 0.127,RankICIR 1.08,IC胜率 0.88[55][89] 量化因子与构建方式 (报告中未明确提及独立的量化因子构建,主要关注端到端模型) 因子的回测效果 (报告中未提供独立因子的测试结果) 分组测试绩效统计 1. RNN-LIN模型(层数1) - 中证全指:年化收益率42.59%,夏普比率1.46,最大回撤-36.71%,超额年化42.05%,平均单边换手0.81[42] - 沪深300:年化收益率28.59%,夏普比率1.38,最大回撤-22.09%,超额年化28.67%,平均单边换手0.66[42] - 中证500:年化收益率23.68%,夏普比率1.02,最大回撤-34.63%,超额年化23.95%,平均单边换手0.76[42] - 中证1000:年化收益率32.81%,夏普比率1.20,最大回撤-35.43%,超额年化33.72%,平均单边换手0.77[42] 2. RNN-LIN-GLU模型(层数1) - 中证全指:年化收益率48.73%,夏普比率1.60,最大回撤-35.33%,超额年化48.19%,平均单边换手0.81[42] - 沪深300:年化收益率29.92%,夏普比率1.38,最大回撤-23.62%,超额年化30.00%,平均单边换手0.65[42] - 中证500:年化收益率24.45%,夏普比率1.03,最大回撤-39.60%,超额年化24.72%,平均单边换手0.75[42] - 中证1000:年化收益率34.47%,夏普比率1.24,最大回撤-34.51%,超额年化35.38%,平均单边换手0.76[42] 3. DecompGRN模型 - 中证全指:年化收益率57.68%,夏普比率1.71,最大回撤-34.69%,超额年化56.18%,平均单边换手0.79[57][89] - 沪深300:年化收益率31.69%,夏普比率1.42,最大回撤-26.88%,超额年化31.00%,平均单边换手0.65[57][89] - 中证500:年化收益率26.90%,夏普比率1.10,最大回撤-37.82%,超额年化26.13%,平均单边换手0.74[57][89] - 中证1000:年化收益率40.35%,夏普比率1.37,最大回撤-35.51%,超额年化40.03%,平均单边换手0.74[57][89] 指增组合测试结果 DecompGRN模型指增表现 - 沪深300指增:年化超额收益10.24%,跟踪误差5.07,超额夏普1.95,超额最大回撤-8.12%,2025年累计超额3.93%[75][85][89] - 中证500指增:年化超额收益10.05%,跟踪误差6.10,超额夏普1.60,超额最大回撤-7.15%,2025年累计超额6.72%[75][85][89] - 中证1000指增:年化超额收益19.58%,跟踪误差6.75,超额夏普2.68,超额最大回撤-9.11%,2025年累计超额18.26%[75][85][89]
守护我们的专注力(金台随笔)
人民日报· 2025-09-05 06:57
数字时代注意力经济现象 - 数字资源易得性导致专注力下降 表现为读不进书 看不下完整电影 无法深度思考[1] - 生活快节奏消磨精神能量 空闲时间倾向于消费无需动脑的内容[1] - 文化体验与自我提升存在知行差距 多数人陷入知易行难困境[1] 专注力重建方法论 - 需改变功利心态 停止过度追求即时回报 才能沉浸过程本身[2] - 3分钟电影速看无法欣赏镜头艺术 5分钟名著速读难以体会文字意蕴[2] - 深度学习中积累的思考习惯与从容气质是时间的长期馈赠[2] 好奇心触发机制 - 好奇心触发连锁反应:产生疑问 激发兴趣 探求原因 深究结果[3] - 创造触发时刻需脱离数字设备 通过人际交流 自然接触 文物观览获得新知[3] - 专注力是由内而外的思维沉浸 非依靠外部自律维持[3] 数字文化资源整合 - 数字技术将海量文化资源编织入日常生活[4] - 需解决注意力失焦问题 培养信息甄别与批判思考能力[4] - 保持文化敬畏心才能使数字文化接触成为精神滋养[4]
刚刚,李飞飞主讲的斯坦福经典CV课「2025 CS231n」免费可看了
机器之心· 2025-09-04 17:33
课程概述 - 斯坦福大学2025年春季《CS231n:深度学习与计算机视觉》课程正式上线,专注于深度学习架构细节及视觉识别任务[1] - 课程重点围绕图像分类、定位和检测等端到端模型学习,特别是图像分类领域[2] - 课程为期10周,学生将实现并训练神经网络,深入理解计算机视觉前沿研究[3] - 结业时学生可在真实世界视觉问题上训练和应用数百万参数的神经网络[4] - 通过实践作业和课程项目,学生掌握深度学习工具集及深度神经网络训练与微调的工程技巧[5] 讲师团队 - 李飞飞担任主讲人之一,为斯坦福教授、World Labs CEO,领导创建ImageNet项目并推动深度学习在计算机视觉领域的革命性突破,近期研究方向为空间智能与世界模型[6] - Ehsan Adeli为斯坦福大学精神病学与行为科学系及计算机科学系助理教授,研究方向包括计算机视觉、计算神经科学、医学影像分析等[6] - Justin Johnson为密歇根大学助理教授及FAIR研究科学家,研究兴趣包括视觉推理、图像生成和3D推理[6] - Zane Durante为斯坦福大学三年级博士生,导师为李飞飞和Ehsan Adeli,研究方向包括多模态视觉理解及人工智能在医疗健康中的应用[7] 课程资源 - 课程全部18个视频已在Youtube免费开放,第一和最后一堂课由李飞飞讲授[12] - Youtube播放列表包含18个视频,总观看次数达984次,其中第一讲观看次数为7410次,第二讲为1057次,第三讲为706次,第四讲为442次[12] - 视频地址为https://www.youtube.com/playlist?list=PLoROMvodv4rOmsNzYBMe0gJY2XS8AQg16[12] 课程内容目录 - 课程内容涵盖线性分类器图像分类、正则化与优化、神经网络与反向传播、卷积神经网络图像分类[16] - 包括卷积神经网络训练与架构、循环神经网络、注意力机制与Transformers、目标识别与图像分割[16] - 涉及视频理解、大规模分布式训练、自监督学习、生成式模型、3D视觉、视觉与语言、机器人学习及以人为中心的人工智能[16]
海洋灾害预警数据集入选典型案例
中国自然资源报· 2025-09-04 10:09
此外,项目还建立了覆盖"实时感知—精准预报—生态保护—智能防控"全周期的数据管理机制,目 前已应用于10余类海洋灾害防治业务场景。这一成果不仅在技术层面实现自主可控的海洋预报创新,更 通过多地多单位协同和数据共享机制,推动海洋数据资源的高效流通与业务化应用,为海洋防灾减灾提 供"海南智慧"和"数据样板"。 该数据集是"海南省海洋灾害综合防治能力建设项目"成果之一,该项目业主单位为海南省海洋厅, 于2025年7月竣工并通过验收,转入业务化运行阶段。 8月28日~30日,在贵阳举办的2025中国国际大数据产业博览会(数博会)上,国家数据局正式发 布高质量数据集典型案例,"海南省海洋灾害多维立体监测与智能预报预警高质量数据集"(以下简称数 据集)成功入选。 据了解,数据集聚焦台风、风暴潮、赤潮、海浪、裂流等多类海洋灾害,通过构建多维立体观测与 智能预报预警体系,有效提升海洋灾害预报的准确性、时效性与精细化水平。项目整合GPU-CPU(图 像处理器-中央处理器)异构计算、深度学习与人工智能模型,建立覆盖海南沿海的风、浪、流、风暴 潮等要素的预报模式,形成约9.6TB(太字节)高质量数据,直接服务于海洋预报警报业务。 ...
AI教父Hinton诺奖演讲首登顶刊,拒绝公式,让全场秒懂「玻尔兹曼机」
36氪· 2025-09-03 19:29
2024年12月8日,诺贝尔物理学奖得主Hinton登台,发表了题为《玻尔兹曼机》的演讲。 当时,斯德哥尔摩大学Aula Magna礼堂内座无虚席,全球目光都集聚于此。 他深入浅出地分享了,自己与John Hopfield利用神经网络,推动机器学习基础性发现的历程。 如今,Hinton这个演讲的核心内容,于8月25日正式发表在美国物理学会(APS)期刊上。 论文地址:https://journals.aps.org/rmp/pdf/10.1103/RevModPhys.97.030502 1980年代,并存两种颇具前景的梯度计算技术—— 一种是,反向传播算法,如今成为了深度学习 核心引擎,几乎无处不在。 另一种是,玻尔兹曼机器学习算法,现已不再被使用,逐渐淡出人们的视野。 这一次,Hinton的演讲重点,就是「玻尔兹曼机」。 一开场,他幽默地表示,自己打算做一件「傻」事,决定在不使用公式的情况下,向所有人解释复杂的技术概念。 霍普菲尔德网络 找到能量最低点 什么是「霍普菲尔德网络」(Hopfield Network)? Hinton从一个简单的二进制神经元网络入手,介绍了「霍普菲尔德网络」的核心思想。 每个神 ...
语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
机器之心· 2025-09-03 12:33
语音分离技术综述 - 清华大学、青海大学、南京大学、南方科技大学、中国科学院大学、字节跳动的研究者全面调研了语音分离领域 对200余篇代表性论文进行了系统归纳和分析 涵盖深度学习方法、模型架构、研究主题、评测指标、数据集、工具平台、模型效果比较和未来挑战等多个维度[2] 问题定义 - 语音分离任务根据混合说话人数量是否已知分为已知人数分离和未知人数分离两类 已知人数分离可通过深度聚类或排列不变训练等策略解决输出顺序不确定的排列歧义问题 未知人数分离需要模型动态决定输出通道数并判断终止时机 面临说话人排列组合随人数增加呈指数扩展的挑战[6] 学习范式 - 有监督学习利用配对的混合音频及纯净源音频进行训练 采用深度聚类方法将时频单元映射到高维嵌入空间再聚类生成声源掩膜 或使用排列不变训练方法对输出标签进行动态匹配只保留误差最小的排列来更新模型[10] - 无监督学习不依赖配对的干净源参考 探索利用未标注的混合语音直接训练分离模型 MixIT方法通过将两段混合语音再混合作为输入 让模型输出更多分量并设计仅依赖输入混合物的损失函数[12] 模型架构 - 典型架构包含编码器、分离网络和解码器 基于RNN的模型利用循环神经网络捕获语音信号中的长时依赖关系 Dual-Path RNN通过划分长序列为短块并在块内和块间双路径循环处理高效建模长序列[17] - 基于CNN的模型利用卷积神经网络强大的局部特征提取能力 Conv-TasNet等时域卷积模型通过空洞卷积技术兼顾短时细节和长程依赖 基于自注意力的模型引入全局序列建模能力 SepFormer等Transformer架构进一步刷新了分离性能[17] - 音频重构策略包括掩膜估计和直接映射两类 掩膜方法输出每个源的时间频率掩膜乘以混合后重建源信号 直接映射方法直接输出各源的波形或特征表示避免误差传播[18] 评测指标 - 主观评价指标包括MOS(评分范围1-5) 直观贴近人耳体验但难以大规模获取[20] - 客观评价指标包括SDR(单位dB)、SIR(单位dB)、SAR(单位dB)、SISDR(单位dB)、PESQ(窄带和宽带范围-0.5~4.5)、STOI(范围0~1)、ESTOI(范围0~1)、DNSMOS(范围1~5)和SIGMOS(范围1~5)等 各自侧重不同方面需要结合使用[20] 数据集 - 单通道数据集包括WSJ0-2mix(2016年)、WSJ0-3mix(2016年)、WHAM!(2019年)、WHAMR!(2020年)、LibriMix(2020年)、DNS Challenge(2021年)、REAL-M(2022年)、Lombard-GRID(2024年)、LibriheavyMix(2024年)、LRS2-2Mix(2024年)和SonicSet(2024年)等[23] - 多通道数据集包括SMS-WSJ(2019年)、LibriCSS(2020年)、Kinect-WSJ(2021年)和AISHELL-4(2021年)等[23] 模型性能 - 在WSJ0-2mix数据集上 早期模型如DPCL和uPIT-BLSTM达到约10 dB的SDR Conv-TasNet等端到端模型将性能推升到12 dB以上 最近两三年SepFormer、DPRNN系列和双路Transformer等先进架构将SDR提升到20 dB左右[24] - 在含噪声混响的WHAM!和WHAMR!数据集上 模型性能相对无噪条件下降明显 说明噪声鲁棒性仍是挑战[25] 工具平台 - 开源工具包括nussl(2018年 Python语言 PyTorch后端 MIT许可证)、ONSSEN(2019年 Python语言 PyTorch后端 GPL-3.0许可证)、ESPNet-SE(2021年 Python语言 PyTorch后端 Apache-2.0许可证)、Asteroid(2020年 Python语言 PyTorch后端 MIT许可证)、SpeechBrain(2021年 Python语言 PyTorch后端 Apache-2.0许可证)、ClearerVoice-Studio(2024年 Python语言 PyTorch后端 Apache-2.0许可证)和WeSep(2024年 Python/C++语言 PyTorch后端 Apache-2.0许可证)等[29] 未来挑战 - 长时段音频处理需要在保证分离连续性的同时控制模型复杂度和内存开销 移动端和嵌入式应用要求模型具备较小参数量和计算量[32] - 因果语音分离要求算法只能利用当前及过去帧的信息不能窥视未来 对模型延时和缓存机制提出严格要求[32] - 生成式方法包括生成对抗网络和扩散模型开始用于语音分离 在弱监督或无监督场景下展示出潜力[32] - 预训练技术如大规模自监督预训练wav2vec 2.0等可提供强大通用特征 在低资源分离任务上显著提升性能[32] - 目标说话人提取利用已知的目标说话人特征从混合中提取该说话人语音 需要高效利用说话人嵌入并与分离网络融合[33] - 语音分离正日益与语音识别、说话人识别/分离、语音增强等任务结合 形成端到端的联合优化框架[33]
Scaling Laws起源于1993年?OpenAI总裁:深度学习的根本已揭秘
具身智能之心· 2025-09-03 08:03
编辑丨机器之心 点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 AI 也要「考古」式科研? 人工智能的「第一性原理」扩展定律(Scaling Laws),把模型性能与算力等资源投入联系在了一起,是如今人们构建更先进大模型重要的参考标尺。 有关扩展定律的起源,存在很多种说法,有人认为是 2020 年 OpenAI 提出的,有人认为是 2017 年百度发现的,详情可参阅我们之前的报道《 遗憾不?原来百度 2017 年就研究过 Scaling Law,连 Anthropic CEO 灵感都来自百度 》。 前些天,康奈尔大学博士生、Meta 研究员 Jack Morris 发推称 Scaling Law 的真正探索者其实是贝尔实验室,这又进一步将历史向前推到了 1993 年。 他进一步解释说,这篇论文其实是一篇 NeurIPS 论文。贝尔实验室的研究者「在不同大小的数据集、不同大小的模型上训练了分类器并拟合了幂律」。这让 Morris 不禁感叹:「不敢相信这已 ...