• 【python量化】将DeepAR用于股票价格多步概率预测


    e10894fcaf95604bf5b41eef8921dcdf.png

    写在前面

    DeepAR是亚马逊提出的一种针对大量相关时间序列建模的预测算法,该算法采用了深度学习的技术,通过在大量时间序列上训练自回归递归网络模型,可以从相关的时间序列中有效地学习全局模型,并且能够学习复杂的模式,例如季节性,周期性等特性,从而实现对各条时间序列进行预测。下面的这篇文章主要教大家如何搭建一个基于DeepAR的简单预测模型,并将其用于股票价格预测当中。

    1

    DeepAR模型

    DeepAR采用了以RNN模型为基础的seq2seq架构,实现多步概率预测。具体地,首先用encoder对conditioning range的数据,也即是过去的历史数据进行编码,得到隐层输出,然后将其作为decoder网络的初始化隐层状态。之后,经过decoder的多次迭代,将输出的结果转化为概率分布的参数,从而实现通过DeepAR得到预测的概率分布。其中,对于训练数据,prediction range的数据,也即是ground truth数据是已知的,所以可以直接用于decoder的输入,来实现通过最大化似然函数对于模型参数进行训练。而对于测试数据,prediction range是没有给定的,所以就需要通过上一时刻的值进行采样,得到一个估计值用于不断迭代输出。模型的基本架构如下所示:

    e89ce31fe88100a92069bfd829e44648.png

    模型架构

    相比于传统的时间序列预测模型,如ARIMA、VAR,DeepAR则可以很方便地将额外信息进行引入,并且其预测目标是序列在每个时间步上取值的概率分布。相比于直接预测数据,概率预测更有实际意义。

    2

    环境配置

    DeepAR模型的实现主要依赖于GluonTS库 (Gluon Time Series),它是一个专门为概率时间序列建模而设计的工具包,由亚马逊开源维护。GluonTS 简化了时间序列模型的开发和实验,常用于预测或异常检测等常见任务。股票数据的获取通过baostock库进行实现。

    库版本:

    1. baostock 0.8.8
    2. mxnet 1.7.0.post2
    3. gluonts               0.9.4
    4. matplotlib 3.5.1

    3

    代码实现

    1、数据获取

    首先,定义一个数据获取的函数,其中通过baostock库获取指定代码股票从2020/1/1到2022/1/1两年的日线数据。

    1. def get_stockdata(code):
    2. rs = bs.query_history_k_data_plus(code,
    3. 'date,close,volume,turn',
    4. start_date='2020-01-01',
    5. end_date='2022-01-01',
    6. frequency='d', adjustflag='2')
    7. return rs.get_data()

    2、数据划分

    之后,定义预测长度以及需要获取的股票代码。然后将获取到的数据划分为训练集和测试集。这里prediction_length变量定义了预测长度,stock_list中选取了三支上海证券交易所中三支医疗板块的股票。之后,将得到的股票数据转换为GluonTS指定的输入数据格式ListDataset。其中,start表示预测起始值,target表示预测的目标变量,cat表示引入的静态变量,这里用到了股票的id,dynamic_feat表示其他的动态标量,这里引入了交易量跟换手率,它的长度需要跟target一致。

    1. prediction_length = 20
    2. stock_list = ['sh.600227', 'sh.600200', 'sh.600201']
    3. train_dic_list = []
    4. test_dic_list = []
    5. lg = bs.login()
    6. for stock_id in stock_list:
    7. df = get_stockdata(stock_id)
    8. train_dic = {'start':df.date[0],
    9. 'target':df.close,
    10. 'cat':int(stock_id.split('.')[1]),
    11. 'dynamic_feat':[df.volume, df.turn]}
    12. test_dic = {'start':df.date[0],
    13. 'target':df.close[:-prediction_length],
    14. 'cat':int(stock_id.split('.')[1]),
    15. 'dynamic_feat':[df.volume[:-prediction_length], df.turn[:-prediction_length]]}
    16. train_dic_list.append(train_dic)
    17. test_dic_list.append(test_dic)
    18. bs.logout()

    3、模型构造与训练

    之后,需要构造DeepAR模型,并进行训练。其中,prediction_length:预测范围的长度;context_length表示在计算预测之前要为RNN展开的步骤数(默认context_length等于prediction_length);num_layers表示RNN层数;num_cells表示每层的RNN的神经元个数。

    1. estimator = DeepAREstimator(
    2. prediction_length=prediction_length,
    3. context_length=60,
    4. freq='1d',
    5. num_layers=2,
    6. num_cells=64,
    7. trainer=Trainer(epochs=20,
    8. learning_rate=1e-2,
    9. num_batches_per_epoch=32)
    10. )
    11. predictor = estimator.train(train_data)

    4、模型测试与可视化

    首先,定义一个函数用于结果的可视化。

    1. def plot_prob_forecasts(ts_entry, forecast_entry, path, sample_id):
    2. plot_length = 150
    3. prediction_intervals = (50, 80)
    4. legend = ['observations', 'median prediction'] + [f'{k}% prediction interval' for k in prediction_intervals][::-1]
    5. _, ax = plt.subplots(1, 1, figsize=(10, 7))
    6. ts_entry[-plot_length:].plot(ax=ax)
    7. forecast_entry.plot(prediction_intervals=prediction_intervals, color='g')
    8. ax.axvline(ts_entry.index[-prediction_length], color='r')
    9. plt.legend(legend, loc='upper left')
    10. plt.savefig('{}forecast_{}.png'.format(path, sample_id))
    11. plt.close()

    之后调用模型评估的方法对训练好的模型进行评估,其中num_samples表示可视化数据的长度。最后,将plot的结果保存在本地。

    1. forecast_it, ts_it = make_evaluation_predictions(
    2. dataset=test_data,
    3. predictor=predictor,
    4. num_samples=100
    5. )
    6. tss = list(tqdm(ts_it, total=len(test_data)))
    7. forecasts = list(tqdm(forecast_it, total=len(test_data)))
    8. plot_log_path = './plots/'
    9. directory = os.path.dirname(plot_log_path)
    10. if not os.path.exists(directory):
    11.     os.makedirs(directory)
    12.     
    13. for i in tqdm(range(len(stock_list))):
    14. ts_entry = tss[i]
    15. forecast_entry = forecasts[i]
    16. plot_prob_forecasts(ts_entry, forecast_entry, plot_log_path, i)

    5、运行结果与分析

    经过20个epoch的训练,可以看出模型的loss不断下降,实际应用中可以通过超参优化,warmup,early stop,dropout等一系列的操作来使得模型具有更好的训练效果,这里不再赘述。

    1. 100%|██████████| 32/32 [00:12<00:00, 2.63it/s, epoch=1/20, avg_epoch_loss=1.99]
    2. 100%|██████████| 32/32 [00:13<00:00, 2.34it/s, epoch=2/20, avg_epoch_loss=1.01]
    3. 100%|██████████| 32/32 [00:07<00:00, 4.49it/s, epoch=3/20, avg_epoch_loss=1.07]
    4. 100%|██████████| 32/32 [00:06<00:00, 4.61it/s, epoch=4/20, avg_epoch_loss=0.87]
    5. 100%|██████████| 32/32 [00:06<00:00, 4.63it/s, epoch=5/20, avg_epoch_loss=0.614]
    6. 100%|██████████| 32/32 [00:05<00:00, 5.40it/s, epoch=6/20, avg_epoch_loss=0.595]
    7. 100%|██████████| 32/32 [00:05<00:00, 6.18it/s, epoch=7/20, avg_epoch_loss=0.474]
    8. 100%|██████████| 32/32 [00:05<00:00, 5.82it/s, epoch=8/20, avg_epoch_loss=0.399]
    9. 100%|██████████| 32/32 [00:05<00:00, 5.85it/s, epoch=9/20, avg_epoch_loss=0.36]
    10. 100%|██████████| 32/32 [00:05<00:00, 5.58it/s, epoch=10/20, avg_epoch_loss=0.273]
    11. 100%|██████████| 32/32 [00:05<00:00, 5.78it/s, epoch=11/20, avg_epoch_loss=0.208]
    12. 100%|██████████| 32/32 [00:05<00:00, 5.83it/s, epoch=12/20, avg_epoch_loss=0.169]
    13. 100%|██████████| 32/32 [00:05<00:00, 6.04it/s, epoch=13/20, avg_epoch_loss=0.156]
    14. 100%|██████████| 32/32 [00:05<00:00, 6.04it/s, epoch=14/20, avg_epoch_loss=0.26]
    15. 100%|██████████| 32/32 [00:05<00:00, 5.98it/s, epoch=15/20, avg_epoch_loss=0.189]
    16. 100%|██████████| 32/32 [00:05<00:00, 5.69it/s, epoch=16/20, avg_epoch_loss=0.138]
    17. 100%|██████████| 32/32 [00:05<00:00, 5.62it/s, epoch=17/20, avg_epoch_loss=0.0314]
    18. 100%|██████████| 32/32 [00:05<00:00, 5.79it/s, epoch=18/20, avg_epoch_loss=-.033]
    19. 100%|██████████| 32/32 [00:05<00:00, 5.73it/s, epoch=19/20, avg_epoch_loss=0.0111]
    20. 100%|██████████| 32/32 [00:05<00:00, 5.67it/s, epoch=20/20, avg_epoch_loss=0.00313]

    三只股票的预测结果可视化如下三张图所示,其中蓝色的线代表ground truth,绿色的线代表概率预测的中值,两个绿色区域则代表了80%跟50%的置信区间。从可视化的结果中也可以看出,随着时间的推移,模型预测结果的误差逐渐扩大,这也侧面说明了进行多步预测的难度之大。

    a0ef924b29bf1554dfbdd5ac2a231a8c.png

    2d93eaacbfea43735f75af76c0df994b.png

    d6165c0db7e90e9e4283c40991c1351f.png

    4

    总结

    本文简单介绍了DeepAR模型在股价多步预测方面的实现,并通过真实股票数据进行了实验验证。在深度学习预测应用方面中,目前主流的方法是利用RNN、LSTM等递归神经网络来进行预测,对于多步预测则同样是基于RNN模型的seq2seq架构,DeepAR模型也是如此,只不过DeepAR模型并不是简单地输出一个预测数值,而是输出预测值的一个概率分布,相比之下,这样做具有多方面的好处,输出一个概率分布则更加具有实际意义,或许还可以实现更高的预测精度。另外,在股价预测方面,通过给出预测值的概率分布,可以给出未来预测结果的不确定性以及相应的风险评估。本文内容仅仅是技术探讨和学习,并不构成任何投资建议。

    参考文献:

    Salinas, D., Flunkert, V., Gasthaus, J., & Januschowski, T. (2020). DeepAR: Probabilistic forecasting with autoregressive recurrent networks. *International Journal of Forecasting*, *36*(3), 1181-1191.

    ef390bc2f1a5996724edc0b477088a80.png

    《人工智能量化实验室》知识星球

    c0898f8bdc879326450b9ea418094c88.png

    加入人工智能量化实验室知识星球,您可以获得:(1)定期推送最新人工智能量化应用相关的研究成果,包括高水平期刊论文以及券商优质金融工程研究报告,便于您随时随地了解最新前沿知识;(2)公众号历史文章Python项目完整源码;(3)优质Python、机器学习、量化交易相关电子书PDF;(4)优质量化交易资料、项目代码分享;(5)跟星友一起交流,结交志同道合朋友。(6)向博主发起提问,答疑解惑。

    e338f3671f7603545118f7597250febf.png

  • 相关阅读:
    阿里云服务器全方位介绍_优势_使用场景_限制说明
    3.3 C++高级编程_函数模板_引入
    对xgboost进行可视化,解决中文乱码问题
    img2col 卷积优化讲解
    golang 并发同步(sync 库)-- 单例模式的实现(六)
    【计算机视觉40例】案例30:EigenFaces人脸识别
    【操作系统】MBR主引导目录结构以及作用
    【数据结构】链表-基本定义及代码练习
    关于稳定扩散最详细的介绍
    HTML+CSS+JavaScript仿京东购物商城网站 web前端制作服装购物商城 html电商购物网站
  • 原文地址:https://blog.csdn.net/FrankieHello/article/details/126736903