卷积神经网络
搜索文档
【广发金工】AI识图关注红利低波(20250330)
广发金融工程研究· 2025-03-30 12:51
市场表现与指数动态 - 最近5个交易日科创50指数跌1.29%,创业板指跌1.12%,大盘价值涨0.28%,大盘成长涨0.04%,上证50涨0.16%,国证2000代表的小盘跌2.98% [1] - 医药生物、农林牧渔市场表现靠前,计算机、国防军工表现靠后 [1] - 中证全指风险溢价指标在2024/01/19达到4.11%,为2016年以来第五次超过4%,截至2025/03/28回落至3.69%,两倍标准差边界为4.72% [1] 估值水平与技术分析 - 截至2025/03/28,中证全指PETTM分位数53%,上证50与沪深300分别为58%、48%,创业板指接近14%,中证500与中证1000分别为33%、38% [2] - 深100指数技术面呈现3年周期规律,2012/2015/2018/2021年熊市下行幅度40%-45%,2021年一季度开始的调整时间与空间已较充分 [2] - 卷积神经网络模型当前配置主题为建筑材料、红利低波等板块 [2][9] 资金交易数据 - 最近5个交易日ETF资金流入162亿元,融资盘减少约248亿元,两市日均成交12346亿元 [3] 量化模型应用 - 卷积神经网络通过标准化价量图表建模,将学习特征映射至行业主题板块,如中证全指建筑材料指数、中证红利低波动指数等 [8][9] 指数与板块跟踪 - 重点跟踪指数包括中证全指建筑材料指数(931009.CSI)、中证红利低波动指数(h30269.CSI)、中证钢铁指数(930606.CSI)等 [9]
重磅!AlexNet源代码已开源
半导体芯闻· 2025-03-24 18:20
AlexNet的发布与意义 - 计算机历史博物馆(CHM)与Google合作发布了AlexNet的源代码 该神经网络是2012年开启当今AI浪潮的关键技术 [1] - AlexNet由多伦多大学团队(Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton)开发 主要用于图像识别 [2][15] - 其2012年论文被引用超过172,000次 标志着计算机视觉领域从传统算法转向神经网络的转折点 [16][17] 深度学习的发展历程 - Geoffrey Hinton团队在1986年重新发现反向传播算法 成为现代深度学习的基础 [5] - 20世纪80年代神经网络以"联结主义"名称复兴 Yann LeCun证明卷积神经网络在手写识别中的优势 [5][6] - 2000年代后期GPU加速的神经网络训练取得突破 语音识别率先验证技术可行性 [13] 关键基础设施突破 - ImageNet项目(2009年完成)提供比传统数据集大几个数量级的训练样本 但前两年算法进步有限 [8][9] - NVIDIA的CUDA系统(2007年)使GPU能用于通用计算 黄仁勋推动的H100芯片现支撑ChatGPT等AI训练 [9][12] - AlexNet首次将深度神经网络、大数据集和GPU计算结合 训练在家庭电脑搭载的两块NVIDIA显卡上完成 [13][15] 技术实现细节 - Alex Krizhevsky开发"cuda-convnet"代码库 通过多GPU支持实现ImageNet训练性能突破 [15] - 原始代码经过5年协商才获谷歌授权发布 2012版源代码现可在CHM的GitHub获取 [18] - 技术路线从专用图像识别扩展至语音合成、围棋、自然语言处理等领域 最终催生ChatGPT [17]
【广发金工】神经常微分方程与液态神经网络
广发金融工程研究· 2025-03-06 08:16
神经常微分方程与液态神经网络 - 神经常微分方程(Neural ODE)通过将离散残差结构连续化,提出用同一常微分方程求解无限堆叠残差结构的参数,显著降低计算复杂度 [1][5][6] - 液态神经网络(LTC/NCP/CFC)基于Neural ODE思想,将循环神经网络离散时间步连续化,提升表征能力并增强抗噪声鲁棒性 [2][13][28] - LTC网络通过生物神经元启发的微分方程设计,在时间序列预测任务中相比传统RNN提升5%-70%性能 [14][15][20] - NCP网络模仿线虫神经系统结构,采用稀疏连接和分层设计,参数量仅为LSTM的4.3%(1,065 vs 24,897)但保持相当性能 [26][31][32] - CFC网络通过推导LTC微分方程的闭式解,避免数值求解过程,训练速度比ODE-RNN快97倍(0.084 vs 7.71分钟/epoch) [33][36][37] 量化选股实证结果 - 液态神经网络显存需求仅为GRU的5%-67%(CFC 6Gb vs GRU 120Gb),实现同等选股效果下大幅降低计算资源消耗 [40][41] - 不同液态网络因子与GRU的相关系数0.69-0.82,显示模型能从相同数据中提取差异化价量特征 [42][43] - NCP结构在2020-2024年回测中表现最优,多头年化收益率24.38%超过GRU的24.21%,夏普比率0.95优于GRU的0.88 [44][50][54] - CFC网络在2024年极端市场中保持稳健,多空年化收益率42.64%显著高于GRU的39.36% [45][58] - 液态神经网络整体多空夏普比率5.22-5.66,优于传统GRU的5.22,显示更强的风险调整后收益能力 [45][50] 技术优势比较 - 参数量:NCP(19神经元)仅253个突触连接,全连接LSTM(64神经元)需24,640个连接 [25][26][32] - 计算效率:CFC训练速度达ODE-RNN的92倍(0.097 vs 8.49分钟/epoch),LTC采用半隐式欧拉法平衡精度与速度 [17][36][37] - 鲁棒性:NCP在噪声环境下碰撞次数比LSTM低63%,异常数据识别准确率保持85%以上 [28][30] - 可解释性:NCP神经元分工明确,可通过微分方程分析单个神经元对决策贡献 [32][38] - 内存占用:CFC前向传播内存复杂度O(1),传统BPTT方法为O(L×T) [19][33]