时间序列模型

搜索文档
中金:一种结合自注意力机制的GRU模型
中金点睛· 2025-07-15 07:39
时间序列模型的核心架构演进 - 时间序列模型(如LSTM、GRU、Transformer)通过门控机制或自注意力结构解决长期依赖问题,其中GRU通过精简的更新门与重置门提升运算效率,更适合实时预测场景 [1][2] - Transformer通过自注意力机制和位置编码实现序列建模革新,在多维时序数据分析中展现并行化优势,但参数量大易导致过拟合 [2][5] - 公司提出AttentionGRU(Res)模型,结合轻量化自注意力、残差结构和GRU,兼顾序列学习能力与样本外稳定性,全市场年化超额收益超30% [6][40] 时序因子与截面因子的模型表现对比 - 测试159个截面因子和158个时序因子(Alpha158)显示:截面因子单因子表现更优(多头超额11% vs 时序因子1%),但时序因子在RNN/LSTM/GRU模型中样本外表现更佳(ICIR均值1.02,为截面因子模型两倍) [4][21] - 时序因子模型样本外多头超额收益达7.6%,显著高于截面因子模型的1.3%,且时序因子ICIR分布更集中 [4][21] - 时序模型的结构特性(如循环连接、门控机制)与时序因子的动态关联性高度匹配,增强了对历史序列特征的保留能力 [8][9] 时序模型优化方向与效果 - 对GRU的门结构优化(如BiGRU、GLU)提升有限:BiGRU样本外ICIR仅提升0.01,多头超额收益增加2个百分点 [27][28] - Transformer样本内效果显著但样本外过拟合,因其参数量过大;AttentionGRU(Res)通过简化自注意力结构和残差连接,样本外年化超额收益达12.6%,中证1000泛化测试超额10.8% [33][34][46] - 残差结构(Res)改善梯度传递问题,自注意力机制动态聚焦核心时序节点,两者结合使模型参数减少50%仍保持长期依赖捕捉能力 [35][36][38] 关键模型性能数据 - AttentionGRU(Res)在全市场测试中IC均值7.38%、ICIR 1.09,多头超额收益12.64%,最大回撤8.41%,胜率80.21% [41] - 传统GRU模型对比:IC均值6.51%、多头超额7.18%,最大回撤5.36%,显示优化结构显著提升收益稳定性 [34][41] - 中证1000泛化测试中,AttentionGRU(Res)多头超额10.8%,优于Transformer(9.0%)和基础GRU(3.47%) [46][47]