被称为低能消耗网络,尖峰的神经网络(SNN)在过去几十年中引起了很多关注。尽管SNN与人工神经网络(ANN)的竞争增加了视力任务,但尽管它们具有内在的时间动力学,但它们很少用于长序列任务。在这项工作中,我们通过利用状态空间模型(SSM)的序列学习能力来开发长序列学习的尖峰状态空间模型(SPIKINGSM)。受树突状神经元结构的启发,我们将神经元动力学与原始SSM块整合在一起,同时实现了稀疏的突触计算。此外,为了解决事件驱动的神经动力学的冲突,我们提出了一个轻巧的替代动态网络,该网络可以准确地预测余后膜的潜力,并且可以兼容以学习能力的阈值,从而在训练速度上与传统的术语相比,在训练速度中具有加速速度。在远程竞技场基准任务中,SpikingsSM在最先进的SSMS上取得了胜利的性能,同时平均重新占据了90%的网络稀疏性。在语言建模上,我们的网络显着超过了Wikitext-103数据集上现有的大型语言模型(SpikingLlms),其中只有三分之一的模型大小,证明其作为低计算成本LLM的骨干架构的潜力。
1山东大规模信息技术研究所,中国2个州主要的服务器和存储技术启动(北京)电子信息行业有限公司,中国北京,中国北京的抽象情感识别来自视觉信息的抽象情感识别是计算机视觉社区的重要研究主题。基于人工神经网络(ANN)的当前普遍解决方案表现出很高的精度,但计算消耗量很大。与ANN相比,尖峰神经网络(SNN)在生物学上更现实,并且在计算上有效。但是,将SNN用于视觉情感识别仍然是一个巨大的挑战,这主要是由于缺乏动态视觉传感器(DVS)的情感数据集和正确设计的SNN框架。在本文中,我们提出了一种生成DVS模拟数据集的方法,利用存在的情感识别数据集包含视频段。同时,采用了SNN框架及其对应ANN,以分别基于模拟DVS数据集和原始帧数据来完成动态视觉情感识别。所提出的SNN框架由一个功能提取模块组成,该模块基于输入的尖峰训练,投票神经元组模块,其中包含两组情绪神经元,以及一个将情感映射模块转换为情感上的尖峰到情感极性标签。结果表明,与ANN相比,提出的SNN可以实现更好的性能,其能耗只是ANN的四分之一。关键字峰值神经网络;动态视觉传感器;情绪识别1。简介
摘要 — 近年来,尽管物理设备扩展速度放缓,但计算机架构大胆而激进的创新趋势日益明显,旨在继续提高计算性能。该领域的一个新前沿是人工智能 (AI) 硬件。虽然 AI 硬件的功能性仍然是主要关注点,但在主流采用之前,需要解决这些新架构的可测试性和可靠性问题。本综述论文涵盖了 AI 硬件可靠性和可测试性解决方案的最新研究和开发,包括用于加速器和神经形态设计的人工神经网络 (ANN) 和脉冲神经网络 (SNN) 的数字或模拟实现。本文还讨论了趋势、挑战和观点。
大脑的连通性是局部密集且全球稀疏的,形成了一个小世界图,这是各种物种进化中普遍存在的原理,为有效的信息路由提供了通用解决方案。但是,当前的人工神经网络电路架构并不能完全包含小世界的神经网络模型。在这里,我们介绍了神经形态的镶嵌:一种非冯·诺伊曼收缩期架构,采用分布式备忘录来进行内存计算和内存路由,有效地实现了用于尖峰神经网络(SNNS)的小世界图形拓扑。我们使用具有130 nm CMOS技术的集成的备忘录,设计,制造和实验证明了马赛克的构建块。我们表明,由于在连接性中执行局部性,马赛克的路由效率至少比其他SNN硬件平台高一个数量级。这是Mosaic在各种边缘基准中实现竞争精度的同时。Mosaic为基于分布式尖峰的计算和内存路由的边缘系统提供了可扩展的方法。
尖峰神经形态系统已被引入,作为能量效能高峰神经网络(SNNS)执行的有前途的平台。SNN除了将变体时间尺度纳入其计算模型外,还结合了神经元和突触状态。由于这些网络中的每个神经元都连接到许多其他网络,因此需要高带宽。此外,由于SPIKE时间用于编码SNN中的信息,因此还需要精确的通信延迟,尽管当SNN被视为一个整体时,SNN对某些限制的尖峰延迟变化具有耐受性。提出了两维数据包切换的芯片网络网络,作为一种解决方案,以提供大规模尖峰的神经网络中可扩展的互连织物。3D-ICS也引起了很多关注,作为解决互连瓶颈的潜在解决方案。结合这两种新兴技术为IC设计提供了新的地平线,以满足新兴AI应用中低功率和小占地面积的高要求。,尽管容忍度是生物系统的自然特征,但将许多计算和记忆单元整合到神经形态芯片中遇到了可靠性问题,其中有缺陷的部分会影响整个系统的性能。本文介绍了R-NASH-A可靠的三维数字神经形态系统的设计和模拟,该系统明确地针对3D-ICS生物学大脑的三维结构,在网络中,网络中的信息以稀疏的尖峰时间和学习为基于局部上的上升式触发性依赖性依赖性依赖性 - 依赖性依赖性统计。我们的平台可实现尖峰网络的高集成密度和小尖峰延迟,并具有可扩展设计。r-nash是一种基于通过透过的VIA技术的设计,可促进基于Chip网络的聚类神经元上的尖峰神经网络实现。我们提供了与主机CPU的内存接口,可以在线培训和推断尖峰神经网络的推断。此外,R-NASH通过优雅的性能退化支持故障恢复。
摘要 — 近年来,尽管物理设备扩展速度放缓,但计算机架构大胆而激进的创新趋势日益明显,旨在继续提高计算性能。该领域的一个新前沿是人工智能 (AI) 硬件。虽然 AI 硬件的功能性仍然是主要关注点,但在主流采用之前,需要解决这些新架构的可测试性和可靠性问题。本综述论文涵盖了 AI 硬件可靠性和可测试性解决方案的最新研究和开发,包括用于加速器和神经形态设计的人工神经网络 (ANN) 和脉冲神经网络 (SNN) 的数字或模拟实现。本文还讨论了趋势、挑战和观点。
目前,人们正在研究使用脉冲神经网络 (SNN) 来解决现代 AI 在边缘设备中得到更广泛应用的一个主要障碍:由深度学习产生的大型先进人工神经网络 (ANN) 的能耗。这尤其适用于常用于图像分类的卷积神经网络 (CNN),但也适用于其他应用领域。这些 ANN 必须很大才能实现最佳性能,因为它们需要具有足够多的参数才能从它们所训练的庞大数据集(例如 ImageNet2012 数据集的 120 万张图像)中吸收足够的信息。使用这些大型 ANN 的标准硬件实现进行推理本质上非常耗电 1 。脉冲神经元一直是人工智能计算硬件开发的重点,其能量预算大幅降低,部分原因是大脑的巨型 SNN(由大约 1000 亿个神经元组成)仅消耗 20 W(参考文献 2)。脉冲神经元输出一串称为脉冲的典型脉冲。因此,它们的输出与 ANN 神经元输出的连续数非常不同。大多数考虑在神经形态硬件中实现的脉冲神经元模型都受到大脑中脉冲神经元的简单模型的启发。然而,这些简单的神经元模型并没有捕捉到生物神经元通过不同的时间脉冲模式(而不仅仅是通过它们的发放率)编码不同输入的能力(参见图 1 中的示例)。虽然大型 ANN 经过越来越复杂的深度学习算法在巨型数据集上训练,在多个智能类别中接近甚至超过人类的表现,但当前一代基于脉冲的神经形态硬件的性能却落后了。人们希望在循环脉冲神经网络的情况下可以弥补这一差距,因为可以直接训练这些神经网络来实现循环 ANN 的大部分性能 3 。但是,对于前馈网络来说,生成具有与 ANN 类似的性能且脉冲较少的 SNN 的问题仍然存在。实现真正良好图像分类的前馈 CNN
人工智能(AI)的快速发展促进了各个领域的各种应用,但由于数据的爆炸性增长,在速度和能源方面也构成了巨大的挑战。光学计算通过利用光子的独特特性,包括宽带宽度,低潜伏期和高能量效率来解决这种瓶颈,从而提供了独特的观点。在这篇评论中,我们介绍了针对不同AI模型的光学计算的最新发展,包括前馈神经网络,储层计算和尖峰神经网络(SNNS)。综合光子设备的最新进展以及AI的崛起,为在实际应用中的光学计算复兴提供了绝佳的机会。这项工作需要广泛社区的多学科努力。本评论概述了近年来最先进的成就,讨论了当前技术的可用性,并指出了各个方面的剩余挑战以推动边境。我们预计,大型集成光子处理器的时代将很快以混合光电框架的形式到达实用AI应用。2021作者。由Elsevier Ltd代表中国工程学院和高等教育出版社有限公司出版。这是CC BY-NC-ND许可证(http://creativecommons.org/licenses/by-nc-nd/4.0/)下的开放访问文章。
摘要 - 非形态硬件努力模仿大脑样神经网络,因此有望在时间数据流上进行可扩展的低功率信息处理。然而,要解决现实世界中的问题,需要培训这些网络。然而,对神经形态底物的培训会由于特征的特征和基于梯度的学习算法所需的非本地计算而产生显着的挑战。本文为神经形态底物设计实用的在线学习算法设计了数学框架。特别是,我们显示了实时复发学习(RTRL)之间的直接联系,这是一种用于计算常规复发神经网络(RNN)(RNN)的在线算法,以及用于培训跨度尖峰神经网络(SNNS)的生物学上可行的学习规则。此外,我们激励基于障碍物雅各布人的稀疏近似,从而降低了该算法的计算复杂性,减少了非本地信息的要求,并凭经验可以提高学习良好的学习性能,从而提高了其对神经形状子形态的适用性。总而言之,我们的框架弥合了深度学习中突触可塑性与基于梯度的方法之间的差距,并为未来神经形态硬件系统的强大信息处理奠定了基础。
随着大型语言模型的规模继续迅速扩展,运行它们所需的计算能力也是如此。基于事件的神经形态设备的网络提供了一种潜在的方法来大大减少推理的能源消耗。迄今为止,大多数基于事件的网络都可以在包括尖峰神经网络(SNNS)在内的神经形态硬件上运行,即使与LSTM模型相当,也无法实现任务性能。结果,对神经形态设备的语言建模似乎是一个遥远的前景。在这项工作中,我们基于最近发表的基于事件的架构The Egru,演示了在神经形态设备(特别是Spinnaker2芯片)上的第一个语言模型实现。spinnaker2是一种多核神经形态芯片,设计用于大规模异步处理,EGRU构建以有效地利用此类硬件,同时保持竞争性任务绩效。此实现标志着神经形态语言模型首次与LSTM匹配,为将任务性能带到大语言模型的级别设定了阶段。我们还根据DVS摄像机的输入来展示对手势识别任务的结果。总的来说,我们的结果展示了这种神经启发的神经网络在硬件中的可行性,强调了单批推断的常见用例的能源效率的显着增长与常规硬件的可行性。