详细内容或原文请订阅后点击阅览
具有长期短期记忆的深度循环神经网络
再次。LTSM 可能正在成为循环 NN 建模中的大问题。我之前写过博客(例如这里),但我仍然不太了解它。有人了解吗?也许它只是一种避免消失梯度问题的手段(并不是说这并不重要);也许它更重要。这篇新论文写得很好,突出介绍了 LSTM。DONUT 集成组合预测方法作者:Lars Lien Ankile;Kjartan Krange摘要:本文提出了一种集成预测方法,通过减少特征和模型选择假设,在 M4Competition 数据集上显示出强劲的结果,称为 DONUT(不使用人类假设)。我们的假设减少主要由自动生成的特征和更多样化的集成模型池组成,其表现明显优于 Montero-Manso 等人(2020 年)提出的基于统计特征的集成方法 FFORMA。此外,我们研究了使用长短期记忆网络 (LSTM) 自动编码器进行特征提取,发现这些特征包含传统统计特征方法无法捕获的关键信息。集成加权模型同时使用 LSTM 特征和统计特征来准确地组合模型。特征重要性和相互作用的分析表明 LSTM 特征略优于单独的统计特征。聚类分析表明,不同的基本 LSTM 特征与大多数统计特征和彼此不同。我们还发现增加解决方案
来源:毫不犹豫再次。LTSM 可能正在成为循环 NN 建模中的大问题。我之前写过博客(例如这里),但我仍然不太了解它。有人吗?
这里也许它只是一种避免消失梯度问题的装置(并不是说这不重要);也许它更重要。
这篇新论文写得很好,突出了 LSTM。