LSTM容易混淆的地方

1 如果只是学习怎么用LSTM,那么可以这么理解LSTM

  LSTM可以看成一个仓库,而这个仓库有三个门卫,他们的功能分别是

  • 遗忘门。决定什么样的物品需要从仓库中丢弃。

  • 输入门。决定输入的什么物品用来存放在仓库。

  • 输出门。根据输入的物品和当前仓库的状态决定输出什么。

 但这三个门外怎么判断遗忘什么,输入什么和输出什么呢?这需要他们通过从历史的数据中学习,这样当未来输入货物时,就知道如何处理。

 这就是为什么LSTM能够从历史数据中学习并记住知识的原因,就是有了这三个门。

 

我在学习LSTM过程中一直混淆的几个概念是

1 多时间步长

 

 图片来自:https://www.jiqizhixin.com/articles/2019-04-01-8?from=synced&keyword=LSTM

也就是使用t-2,t-1,t 的去预测 t+1时刻的值

2 多变量

 

 

 也就是使用多个特征去预测,上图没有用到多时间步长

https://machinelearningmastery.com/multivariate-time-series-forecasting-lstms-keras/ 

这里有一片的博客,或许对你有帮助,其中需要注意的地方是:

他分别用多变量单步时长    和   多变量多步时长(Multiple Lag Timesteps)。

它们最大的不同点在于:

下图是单步时长:1

 

 

下面是多步时长:n_hours = 3 (可以设置为任何时长)

 

 

 经过实践,发现多步时长的训练时间要长于单步的,准确率相比也有提高。相当于手动设置了要预测的值和之前多长时间中的值相关。有中上下文相关的意味。

 

3 预测未来多个时长

以上不管是多时步长还是单时步长,预测是输出值只有一个,如果我想输入当前值,预测未来多个值呢?

 

posted @ 2019-11-04 10:25  我要记下来!  阅读(520)  评论(0编辑  收藏  举报