摘要 —脉冲神经网络 (SNN) 具有生物现实性,且由于其事件驱动机制而在低功耗计算方面具有实际应用前景。通常,SNN 的训练会在各种任务上遭受准确度损失,其性能不如 ANN。提出了一种转换方案,通过将训练好的 ANN 参数映射到具有相同结构的 SNN 来获得具有竞争力的准确度。然而,这些转换后的 SNN 需要大量的时间步骤,从而失去了节能优势。利用 ANN 的准确度优势和 SNN 的计算效率,提出了一种新颖的 SNN 训练框架,即逐层 ANN 到 SNN 知识提炼 (LaSNN)。为了实现具有竞争力的准确度和减少推理延迟,LaSNN 通过提炼知识而不是转换 ANN 的参数将学习从训练有素的 ANN 转移到小型 SNN。通过引入注意力机制,我们弥合了异构 ANN 和 SNN 之间的信息鸿沟,利用我们的分层蒸馏范式有效地压缩了 ANN 中的知识,然后有效地传输这些知识。我们进行了详细的实验,以证明 LaSNN 在三个基准数据集(CIFAR-10、CIFAR-100 和 Tiny ImageNet)上的有效性、功效和可扩展性。与 ANN 相比,我们实现了具有竞争力的 top-1 准确率,并且推理速度比具有类似性能的转换后的 SNN 快 20 倍。更重要的是,LaSNN 灵活且可扩展,可以毫不费力地为具有不同架构/深度和输入编码方法的 SNN 开发,从而促进其潜在发展。
摘要 — 脉冲神经网络 (SNN) 是一种生物学上合理的模型,具有高计算能力和低功耗的优点。而深度 SNN 的训练仍然是一个悬而未决的问题,这限制了深度 SNN 的实际应用。在这里,我们提出了一种名为 Spiking SiamFC++ 的深度 SNN 架构,用于通过端到端直接训练进行对象跟踪。具体而言,在时间域上扩展 AlexNet 网络以提取特征,并采用代理梯度函数实现深度 SNN 的直接监督训练。为了检查 Spiking SiamFC++ 的性能,考虑了几个跟踪基准,包括 OTB2013、OTB2015、VOT2015、VOT2016 和 UAV123。发现与原始 SiamFC++ 相比,精度损失很小。与现有的基于 SNN 的目标跟踪器(例如 SiamSNN)相比,所提出的 Spiking SiamFC++ 的精度(连续性)达到 85.24%(64.37%),远高于 SiamSNN 实现的 52.78%(44.32%)。据我们所知,Spiking SiamFC++ 的性能优于现有的基于 SNN 的对象跟踪的先进方法,这为 SNN 在目标跟踪领域的应用提供了一条新途径。这项工作可能会进一步促进 SNN 算法和神经形态芯片的发展。
本文提出了一种低功耗神经形态处理器——文曲星 22A,它将通用 CPU 功能与 SNN 相结合,利用 RISC-V SNN 扩展指令对其进行高效计算。文曲星 22A 的主要思想是将 SNN 计算单元集成到通用 CPU 的流水线中,利用定制的 RISC-V SNN 指令 1.0(RV-SNN 1.0)、精简泄漏积分和发射 (LIF) 模型和二元随机脉冲时序相关塑性 (STDP) 实现低功耗计算。文曲星 22A 的源代码已在 Gitee 1 和 GitHub 1 上在线发布。我们将文曲星 22A 应用于 MNIST 数据集的识别,以与其他 SNN 系统进行比较。实验结果表明,文曲星22A相比加速器解决方案ODIN能耗降低了5.13倍,3位ODIN在线学习的分类准确率约为85.00%,1位文曲星22A的分类准确率约为91.91%。
脉冲神经网络 (SNN) 具有高度的生物合理性、丰富的时空动态和事件驱动计算,是一种有前途的节能人工神经网络 (ANN) 替代方案。基于替代梯度法的直接训练算法提供了足够的灵活性来设计新颖的 SNN 架构并探索 SNN 的时空动态。根据以前的研究,模型的性能高度依赖于其大小。最近,直接训练深度 SNN 在神经形态数据集和大规模静态数据集上都取得了巨大进展。值得注意的是,基于 Transformer 的 SNN 表现出与 ANN 相当的性能。在本文中,我们提供了一个新的视角,系统而全面地总结了训练高性能深度 SNN 的理论和方法,包括理论基础、脉冲神经元模型、高级 SNN 模型和残差架构、软件框架和神经形态硬件、应用和未来趋势。
95个基于硬件的SNN是模拟或数字的。模拟SNN系统[20]显示的功耗低于数字SNN [21]。相比之下,数字SNN更加灵活,因此更适合原型制作,同时显示整体的设计时间更快,因此构成了初步实验和新一代神经假体设计的最佳选择。突出的SNN硬件平台是Merolla [22],Brainscales-2 [23],Spinnaker [24]和Loihi [25]。尽管其中一些系统呈现出移动版本,例如[26]用于BrainScales-2,但它们通常不适合嵌入式应用程序。在本手稿中,我们介绍了实时仿生Snn Biouthmus的功能,以实现独立的神经元和完全连接的网络,展示了系统集成,促进了多功能性和易用性。
脉冲神经网络 (SNN) 具有高度的生物合理性、丰富的时空动态和事件驱动计算,是人工神经网络 (ANN) 的一种有前途的节能替代方案。基于替代梯度法的直接训练算法提供了足够的灵活性来设计新颖的 SNN 架构并探索 SNN 的时空动态。根据以前的研究,模型的性能高度依赖于其大小。最近,直接训练深度 SNN 在神经形态数据集和大规模静态数据集上都取得了巨大进展。值得注意的是,基于变压器的 SNN 表现出与 ANN 同类产品相当的性能。在本文中,我们提供了一个新的视角,以系统而全面的方式总结了训练高性能深度 SNN 的理论和方法,包括理论基础、脉冲神经元模型、高级 SNN 模型和残差架构、软件框架和神经形态硬件、应用和未来趋势。评论的论文收集在 Awesome-Spiking-Neural-Networks 中。
用 C 语言开发 SNN 以实现向硬件的移植能力 为 RISC-V 开发自定义指令以实现加速 用 C 语言开发 SNN 以实现向硬件的移植能力
脉冲神经网络 (SNN) 是一种受生物启发的神经网络模型,具有某些类似大脑的特性。在过去的几十年里,这种模型在计算机科学界引起了越来越多的关注,这也要归功于深度学习的成功。在 SNN 中,神经元之间的通信通过脉冲和脉冲序列进行。这使得这些模型有别于“标准”人工神经网络 (ANN),在“标准”人工神经网络中,脉冲频率被实值信号取代。脉冲神经网络 P 系统 (SNPS) 可以被认为是 SNN 的一个分支,它更多地基于形式自动机的原理,在膜计算理论的框架内开发了许多变体。在本文中,我们首先简要比较了 SNN 和 SNPS 的结构和功能、优点和缺点。本文的一个关键部分是概述了 SNN 和 SNPS 形式化的机器学习和深度学习模型的最新成果和应用。
尖峰神经网络(SNN)在推理过程中在功耗和事件驱动的属性方面具有显着优势。为了充分利用低功耗并提高了这些模型的效率,已经探索了修剪方法,以找到稀疏的SNN,而无需在训练后没有冗余连接。但是,参数冗余仍然会阻碍训练过程中SNN的效率。在人脑中,神经网络的重新布线过程是高度动态的,而突触连接在脑部消除过程中保持相对较少。受到此启发,我们在这里提出了一个名为ESL-SNNS的SNN的有效进化结构学习(ESL)框架,以实现从头开始实施稀疏的SNN训练。SNN中突触连接的修剪和再生在学习过程中动态发展,但将结构稀疏保持在一定水平。因此,ESL-SNN可以通过在时间上列出所有可能的参数来搜索最佳的稀疏连接。我们的实验表明,所提出的ESL-SNNS框架能够有效地学习稀疏结构的SNN,同时降低有限的精度。ESL-SNN仅达到0。在DVS-CIFAR10数据集上具有10%连接密度的28%抗性损失。我们的工作提出了一种全新的方法,可以通过生物学上合理的进化机制对SNN进行稀疏训练,从而缩小了稀疏训练和密集培训之间的明确攻击差距。因此,它具有SNN轻量级训练和低功耗和少量记忆使用情况的巨大潜力。
摘要 — 随着智能系统的采用,人工神经网络 (ANN) 已变得无处不在。传统的 ANN 实现能耗高,限制了它们在嵌入式和移动应用中的使用。脉冲神经网络 (SNN) 通过二进制脉冲随时间分布信息来模拟生物神经网络的动态。神经形态硬件的出现充分利用了 SNN 的特性,例如异步处理和高激活稀疏性。因此,SNN 最近引起了机器学习社区的关注,成为低功耗应用的 ANN 的受大脑启发的替代品。然而,信息的离散表示使得通过基于反向传播的技术训练 SNN 具有挑战性。在这篇综述中,我们回顾了针对深度学习应用(例如图像处理)的深度 SNN 的训练策略。我们从基于从 ANN 到 SNN 的转换的方法开始,并将它们与基于反向传播的技术进行比较。我们提出了一种新的脉冲反向传播算法分类法,将其分为三类,即:空间方法、时空方法和单脉冲方法。此外,我们还分析了提高准确性、延迟和稀疏性的不同策略,例如正则化方法、训练混合和调整特定于 SNN 神经元模型的参数。我们重点介绍了输入编码、网络架构和训练策略对准确性-延迟权衡的影响。最后,鉴于准确、高效的 SNN 解决方案仍面临挑战,我们强调了联合硬件和软件共同开发的重要性。