具有长期短期记忆的深度循环神经网络

再次。LTSM 可能正在成为循环 NN 建模中的大问题。我之前写过博客(例如这里),但我仍然不太了解它。有人了解吗?也许它只是一种避免消失梯度问题的手段(并不是说这并不重要);也许它更重要。这篇新论文写得很好,突出介绍了 LSTM。DONUT 集成组合预测方法作者:Lars Lien Ankile;Kjartan Krange摘要:本文提出了一种集成预测方法,通过减少特征和模型选择假设,在 M4Competition 数据集上显示出强劲的结果,称为 DONUT(不使用人类假设)。我们的假设减少主要由自动生成的特征和更多样化的集成模型池组成,其表现明显优于 Montero-Manso 等人(2020 年)提出的基于统计特征的集成方法 FFORMA。此外,我们研究了使用长短期记忆网络 (LSTM) 自动编码器进行特征提取,发现这些特征包含传统统计特征方法无法捕获的关键信息。集成加权模型同时使用 LSTM 特征和统计特征来准确地组合模型。特征重要性和相互作用的分析表明 LSTM 特征略优于单独的统计特征。聚类分析表明,不同的基本 LSTM 特征与大多数统计特征和彼此不同。我们还发现增加解决方案

来源:毫不犹豫

再次。LTSM 可能正在成为循环 NN 建模中的大问题。我之前写过博客(例如这里),但我仍然不太了解它。有人吗?

这里

也许它只是一种避免消失梯度问题的装置(并不是说这不重要);也许它更重要。

这篇新论文写得很好,突出了 LSTM。

作者:Lars Lien Ankile;Kjartan Krange摘要:本文提出了一种集成预测方法,通过减少特征和模型选择假设,在 M4Competition 数据集上显示出强大的结果,称为 DONUT(不使用人类假设)。我们的假设简化主要由自动生成的特征和更多样化的集成模型池组成,其性能显著优于 Montero-Manso 等人 (2020) 提出的基于统计特征的集成方法 FFORMA。此外,我们研究了使用长短期记忆网络 (LSTM) 自动编码器进行的特征提取,发现这些特征包含传统统计特征方法无法捕获的关键信息。集成加权模型同时使用 LSTM 特征和统计特征来准确地组合模型。特征重要性和交互作用的分析表明,LSTM 特征略优于单独的统计特征。聚类分析表明,不同的基本 LSTM 特征与大多数统计特征和彼此都不同。我们还发现,通过使用新模型扩充集成来增加加权模型的解空间是加权模型学会使用的东西,这解释了部分准确性的提高。最后,我们对集成的最佳组合和选择进行了正式的事后分析,通过对 M4 数据集进行线性优化来量化差异。我们还提供了一个简短的证明,即模型组合优于模型选择,后验。日期:2022–01URL:http://d.repec.org/n?u=RePEc:arx:papers:2201.00426&r=&r=for
作者:Lars Lien Ankile;  Kjartan Krange 作者: