详细内容或原文请订阅后点击阅览
torch 时间序列,最后一集:注意力
我们通过使用一种在自然语言处理中非常流行且受人类(和动物)认知启发的技术来增强上次的序列到序列架构,从而结束使用 torch 进行时间序列预测的迷你系列:注意力。
来源:RStudio AI博客这是使用 torch 进行时间序列预测的四部分介绍中的最后一篇。这些文章讲述了多步预测的探索,到目前为止,我们已经看到了三种不同的方法:循环预测、结合多层感知器 (MLP) 和序列到序列模型。下面是简要回顾。
torch
- 当人们开始冒险之旅时,我们应该首先深入研究我们可以使用的工具:循环神经网络 (RNN)。我们训练了一个模型来预测下一个观察结果,然后,想到了一个聪明的技巧:我们如何将其用于多步预测,在循环中反馈单个预测?事实证明,结果是相当可以接受的。然后,冒险真的开始了。我们“原生”构建了第一个多步预测模型,减轻了 RNN 的工作量,并引入了第二个参与者,一个小型 MLP。现在,MLP 的任务是将 RNN 输出投射到未来的几个时间点。虽然结果相当令人满意,但我们并没有止步于此。相反,我们将自然语言处理 (NLP) 中常用的一种技术应用于数值时间序列:序列到序列 (seq2seq) 预测。虽然预测性能与前一种情况没有太大区别,但我们发现该技术更具直观吸引力,因为它反映了连续预测之间的因果关系。
想法如下。
那些数据输入
vic_elec
<-
7
*
2
7