• 李雅普诺夫稳定性、渐近稳定性、指数稳定性 • 李雅普诺夫稳定性定理 • 李雅普诺夫函数构造 • Krasovskii 方法、变量梯度法、Zubov 方法 • 线性系统稳定性和李雅普诺夫线性化方法 • 不变性原理 • 不变集稳定性定理 • 逆李雅普诺夫定理 • 不稳定性定理 • 部分稳定性 • 时变系统的稳定性理论 • 拉格朗日稳定性、有界性和最终有界性 • 庞加莱映射和周期轨道稳定性
复杂的时变系统通常通过从单个组件的动态中抽象出来,从一开始就构建群体水平的动态模型来研究。然而,在构建群体水平的描述时,很容易忽视每个个体以及它们对大局的贡献。在本文中,我们提出了一种新颖的 Transformer 架构,用于从时变数据中学习,该架构可以构建个体和集体群体动态的描述。我们不是一开始就将所有数据组合到模型中,而是开发了一个可分离的架构,该架构首先对单个时间序列进行操作,然后再将它们传递下去;这会产生置换不变性,可用于在不同大小和顺序的系统之间进行传输。在证明我们的模型可以成功恢复多体系统中的复杂相互作用和动态之后,我们将我们的方法应用于神经系统中的神经元群体。在神经活动数据集上,我们表明我们的模型不仅具有强大的解码性能,而且在跨不同动物记录的迁移中也表现出色,无需任何神经元级对应关系。通过实现可迁移到不同大小和顺序的神经记录的灵活预训练,我们的工作为创建神经解码的基础模型迈出了第一步。
复杂的时变系统通常通过从单个组件的动态中抽象出来,从一开始就构建种群水平动态模型来研究。然而,在构建种群水平描述时,很容易忽略每个个体以及每个个体对大局的贡献。在本文中,我们提出了一种新颖的 Transformer 架构,用于从时变数据中学习,该架构构建了个体和集体种群动态的描述。我们不是一开始就将所有数据组合到模型中,而是开发了一种可分离的架构,该架构首先对单个时间序列进行操作,然后再将它们传递下去;这会产生置换不变性,可用于在不同大小和顺序的系统之间进行传输。在证明我们的模型可以成功恢复多体系统中的复杂相互作用和动态之后,我们将我们的方法应用于神经系统中的神经元群体。在神经活动数据集上,我们表明我们的多尺度 Transformer 不仅具有强大的解码性能,而且还提供了令人印象深刻的传输性能。我们的结果表明,有可能从一种动物大脑中的神经元中学习,并将模型转移到另一种动物大脑中的神经元上,并且可以解释不同集合和动物之间的神经元对应关系。这一发现开辟了一条从大量神经元集合中进行解码和表示的新途径。
神经活动和行为来自多个并发的时变系统,包括神经调节,神经状态和历史;但是,大多数当前方法将这些数据建模为具有单个时间尺度的一组动力学。在这里,我们通过Hy Pernetworks(Tidhy)开发了Ti Mescale d emixing,作为一种新的计算方法,用于建模临时数据,将它们分解为多个同时的潜在动力学系统,这些动力系统可能跨越刻板级的阶数不同的时间表。具体来说,我们训练一个超网络以动态重新重新获得潜在动力学的线性组合。此方法可以实现准确的数据重建,收敛到真正的潜在动力学并捕获多个变化的时间尺度。我们首先证明Tidhy可以从包含多个独立开关线性动力学系统的合成数据中删除动力学和时间尺度,即使观察结果混合在一起。接下来,使用模拟的运动行为数据集,我们表明tidhy准确地捕获了运动运动学的快速动力学和不断变化的地形的缓慢动力学。最后,在开源的多动物社会行为数据集中,我们表明用Tidhy提取的关键点轨迹动力学可用于准确识别Multiple小鼠的社交行为。综上所述,Tidhy是一种强大的新算法,用于将同时的潜在动力系统与不同的计算域应用。