第二章作业用Transformer实现
要求
第二章的作业我们是用的全连接网络实现的,并鉴于这个数据是序列数据,我们又用LSTM来复现了一次。但是Transformer作为序列数据的扛把子,老师认为它才是处理序列数据的利器!
作业
用Transformer再来处理一次第二章的数据。我们通过本章的学习知道,Transformer是由Encoder和Decoder做成的,但是其Encoder部分是可以用来处理序列数据的回归或者分类问题的,那么请同学们尝试只用Transformer的Encoder部分,再来处理一次第二章的茅台数据,看看效果是否有提升!
提示
- 如果同学们能把这项作业完成,不论结果如何,大概率是已经对神经网络比较熟悉了
- 结果可能会不及预期,甚至没有收敛;因为这个相当于就是基于指标的深度学习量化交易了,但是还有部分残缺的知识并未补齐,比如金融知识,基本面分析等等。。
- 在这个过程中不需要Decoder,仅是将Transformer的Encoder单独拿出来用作一个回归模型