Loading...
机构名称:
¥ 1.0

储存器计算 (RC) [1, 2] 是一种循环神经网络,近年来因其训练成本低、可通过专用电路 [3, 4] 和物理 RC [5, 6] 在硬件上实现而备受关注。RC 由储存器部分和读出部分组成,储存器部分接收时间序列输入并将其非线性转换为高维空间以表示输入的时空模式,读出部分从储存器部分拾取一些模式来分析输入并生成输出。RC 的主要优势是除读出部分之外的权重连接都是固定的。因此,与深度神经网络相比,其训练所需的数据量更少,计算成本更低。因此,RC 适用于计算资源有限且无需云计算即可执行训练的边缘 AI 系统。 RC 的读出大多由线性模型(单层感知器)实现,因此,读出的适应训练数据的能力有限。为了增强 RC 的训练能力,我们提出了一个具有多个读出的 RC 模型,该模型将一个读出的训练分散,以便每个读出可以专注于特定类型的训练数据。该方法可以看作是一种集成学习,用于增强 RC 泛化性能。简单地增加读出的数量对于边缘 AI 系统来说是低效的,因为它会消耗系统中有限的内存资源。本研究引入了一种自组织函数,它能够使用

用于水库计算的多个读数的集成学习

用于水库计算的多个读数的集成学习PDF文件第1页

用于水库计算的多个读数的集成学习PDF文件第2页

用于水库计算的多个读数的集成学习PDF文件第3页

用于水库计算的多个读数的集成学习PDF文件第4页

相关文件推荐

2020 年
¥1.0