深度吸引子:深度学习与混沌相遇的地方

在非线性动力学中,当状态空间被认为是多维的,但我们所拥有的数据只是一个单变量时间序列时,人们可能会尝试通过延迟坐标嵌入重建真实空间。然而,先验地不清楚如何选择重建空间的维数和时间滞后。在这篇文章中,我们展示了如何使用自动编码器架构来解决这个问题:只需给出一系列标量的观察结果,自动编码器就会直接学习以足够的维数来表示混沌系统的吸引子。

来源:RStudio AI博客

对于我们这些深度学习从业者来说,这个世界不是平的,而是线性的,大部分是。或者是分段线性的。像其他线性近似一样,深度学习在预测方面可以非常成功,甚至可能更成功。但让我们承认这一点——有时我们只是怀念非线性的刺激,怀念好的、古老的、确定性的但不可预测的混乱。我们能两者兼得吗?看起来我们可以。在这篇文章中,我们将看到深度学习 (DL) 在非线性时间序列预测中的应用——或者更确切地说,在它之前的重要步骤:重建其动态背后的吸引子。虽然这篇文章是一篇介绍性的文章,从头开始介绍这个主题,但后续的文章将在此基础上进行构建并推断到观察数据集。

这篇文章的预期内容

在他的 2020 年论文《时间序列奇异吸引子的深度重建》(Gilpin 2020)中,William Gilpin 使用自动编码器架构,结合实现假最近邻统计的正则化器(Kennel、Brown 和 Abarbanel 1992),从多变量、非线性动态系统的单变量观测中重建吸引子。如果您觉得您完全理解了刚刚阅读的句子,您也可以直接跳到论文 - 不过回来查看代码。另一方面,如果您对桌面上的混乱(推断......抱歉)比混沌理论混乱更熟悉,请继续阅读。在这里,我们将首先介绍它的全部内容,然后展示一个示例应用程序,以 Edward Lorenz 著名的蝴蝶吸引子为特色。虽然这篇初始帖子主要是为了有趣地介绍一个引人入胜的话题,但我们希望将来能将其应用于现实世界的数据集。

从时间序列深度重建奇异吸引子 (Gilpin 2020) Gilpin 2020 假最近邻居 (Kennel、Brown 和 Abarbanel 1992) Kennel、Brown 和 Abarbanel 1992 混沌理论 混沌

兔子、蝴蝶和低维投影:我们的上下文问题陈述

逻辑 \(x\) \(r\) ( )