随机神经网络 (RNN) 在许多不同领域都表现出色。训练参数较少和闭式解的优势使其在小数据集分析中广受欢迎。然而,在基于 EEG 的被动脑机接口 (pBCI) 分类任务中,使用 RNN 自动解码原始脑电图 (EEG) 数据仍然具有挑战性。具有高维 EEG 输入的模型可能会出现过度拟合,非平稳、高水平噪声和受试者变异性的固有特性可能会限制隐藏层中独特特征的生成。为了解决基于 EEG 的 pBCI 任务中的这些问题,本文提出了一种频谱集合深度随机向量功能链接 (SedRVFL) 网络,该网络专注于频域中的特征学习。具体而言,提出了一种无监督特征细化 (FR) 块来提高 RNN 中的低特征学习能力。此外,还执行动态直接链接 (DDL) 以进一步补充频率信息。所提出的模型已在自收集数据集和公共驾驶数据集上进行了评估。获得的跨受试者分类结果证明了其有效性。这项工作为EEG解码提供了一种新的解决方案,即使用优化的RNN来解码复杂的原始EEG数据并提高基于EEG的pBCI任务的分类性能。
超维计算 (HDC) 是一种新兴的计算框架,其灵感来自大脑,它对具有数千个维度的向量进行操作以模拟认知。与对数字进行操作的传统计算框架不同,HDC 与大脑一样,使用高维随机向量,并且能够进行一次性学习。HDC 基于一组定义明确的算术运算,具有很强的错误恢复能力。HDC 的核心操作以批量逐位方式操纵 HD 向量,提供了许多利用并行性的机会。不幸的是,在传统的冯·诺依曼架构中,HD 向量在处理器和内存之间的连续移动会使认知任务变得非常缓慢且耗能。硬件加速器只能略微改善相关指标。相比之下,即使是内存中 HDC 框架的部分实现也可以提供相当大的性能/能量增益,正如先前使用忆阻器的工作所证明的那样。本文介绍了一种基于赛道内存 (RTM) 的架构,用于在内存中执行和加速整个 HDC 框架。所提出的解决方案利用 RTM 中跨多个域的读取操作(称为横向读取 (TR))来实现异或 (XOR) 和加法运算,从而只需要极少的额外 CMOS 电路。为了最大限度地减少 CMOS 电路开销,提出了一种基于 RTM 纳米线的计数机制。以语言识别为示例工作负载,与最先进的内存实现相比,所提出的 RTM HDC 系统将能耗降低了 8.6 倍。与使用 FPGA 实现的专用硬件设计相比,基于 RTM 的 HDC 处理在整体运行时间和能耗方面分别展示了 7.8 倍和 5.3 倍的改进。
超维计算 (HDC) 是一种新兴的计算框架,其灵感来自大脑,它对具有数千个维度的向量进行操作以模拟认知。与对数字进行操作的传统计算框架不同,HDC 与大脑一样,使用高维随机向量,并且能够进行一次性学习。HDC 基于一组定义明确的算术运算,具有很强的错误恢复能力。HDC 的核心操作以批量逐位方式操纵 HD 向量,提供了许多利用并行性的机会。不幸的是,在传统的冯·诺依曼架构中,HD 向量在处理器和内存之间的连续移动会使认知任务变得非常缓慢且耗能。硬件加速器只能略微改善相关指标。相比之下,即使是内存中 HDC 框架的部分实现也可以提供相当大的性能/能量增益,正如之前使用忆阻器的工作所证明的那样。本文介绍了一种基于赛道内存 (RTM) 的架构,用于在内存中执行和加速整个 HDC 框架。所提出的解决方案利用 RTM 中跨多个域的读取操作(称为横向读取 (TR))来实现异或 (XOR) 和加法运算,从而只需极少的额外 CMOS 电路。为了最大限度地减少 CMOS 电路开销,提出了一种基于 RTM 纳米线的计数机制。以语言识别为示例工作负载,所提出的 RTM HDC 系统与最先进的内存实现相比,将能耗降低了 8.6 倍。与使用 FPGA 实现的专用硬件设计相比,基于 RTM 的 HDC 处理在整体运行时间和能耗方面分别实现了 7.8 倍和 5.3 倍的提升。
生物计算系统以准确性换取效率。因此,降低人工智能系统能耗的一种解决方案是采用本质上对不确定性具有鲁棒性的计算方法。超维计算 (HDC) 就是这样一个框架,它基于这样的观察:人类记忆、感知和认知的关键方面可以通过由高维二进制向量(称为超向量)组成的超维空间的数学特性来解释。超向量定义为具有独立且相同分布 (iid) 分量 1 的 d 维(其中 d ≥ 1,000)(伪)随机向量。当维数为数千时,存在大量准正交超向量。这允许 HDC 使用明确定义的向量空间运算将这些超向量组合成新的超向量,这些运算的定义使得生成的超向量是唯一的,并且具有相同的维数。可以在丰富的超向量代数上构建强大的计算系统 2 。超向量上的群、环和域成为底层计算结构,而排列、映射和逆则是原始计算操作。近年来,HDC 被广泛应用于机器学习、认知计算、机器人和传统计算等各个领域。它在涉及时间模式的机器学习应用中显示出巨大的潜力,例如文本分类 3 、生物医学信号处理 4、5 、多模态传感器融合 6 和分布式传感器 7、8 。HDC 的一个关键优势是训练算法只需一次或几次即可完成:也就是说,对象类别是从一个或几个示例中学习到的,并且只需对训练数据进行一次传递,而不是经过多次迭代。在突出的机器学习应用中,与支持向量机 (SVM) 4 、极端梯度提升 9 和卷积神经网络 (CNN) 10 相比,HDC 以更少的训练示例实现了相似或更高的准确率,与 SVM 11、CNN 和长短期记忆 5 相比,在嵌入式 CPU/GPU 上的执行能耗更低。HDC 在认知计算中的应用包括解决瑞文渐进矩阵 12 、蜜蜂概念学习的功能模仿 13 和类比
在本文中,我们应用量子信道和开放系统状态演化的理论,提出了一种用于量子隐马尔可夫模型 (QHMM) 的酉参数化和高效学习算法。我们将任何具有非平凡算子和表示的量子信道视为具有隐藏动态和可测量发射的随机系统。通过利用量子信道更丰富的动态,特别是通过混合状态,我们证明了量子随机生成器比经典生成器具有更高的效率。具体而言,我们证明了可以在量子希尔伯特空间中使用比经典随机向量空间少二次的维度来模拟随机过程。为了在量子硬件上的电路计算模型中实现 QHMM,我们采用了 Stinespring 的扩张构造。我们表明,可以使用具有中间电路测量的量子电路有效地实现和模拟任何 QHMM。在酉电路的假设空间中,可行的 QHMM 学习的一个关键优势在于 Stinespring 扩张的连续性。具体而言,如果通道的酉参数化在算子范数中接近,则相应通道在钻石范数和 Bures 距离中也将接近。此属性为定义具有连续适应度景观的高效学习算法奠定了基础。通过采用 QHMM 的酉参数化,我们建立了一个正式的生成学习模型。该模型形式化了目标随机过程语言的经验分布,定义了量子电路的假设空间,并引入了一个经验随机散度度量——假设适应度——作为学习成功的标准。我们证明,该学习模型具有平滑的搜索景观,这归因于 Stinespring 扩张的连续性。假设空间和适应度空间之间的平滑映射有助于开发高效的启发式和梯度下降算法。我们考虑了四种随机过程语言的例子,并使用超参数自适应进化搜索和多参数非线性优化技术训练 QHMM,这些技术应用于参数化的量子拟设电路。我们通过在量子硬件上运行最优电路来确认我们的结果。