摘要 — 我们介绍了用于神经形态处理器上的在线小样本学习的替代梯度在线错误触发学习 (SOEL) 系统。SOEL 学习系统结合了迁移学习和计算神经科学与深度学习的原理。我们表明,在神经形态硬件上实施的部分训练的深度脉冲神经网络 (SNN) 可以快速在线适应域内的新数据类别。发生错误时会触发 SOEL 更新,从而以更少的更新实现更快的学习。以手势识别为例,我们表明 SOEL 可用于对新类别的预记录手势数据进行在线小样本学习,以及从动态主动像素视觉传感器实时传输到英特尔 Loihi 神经形态研究处理器的数据中快速在线学习新手势。
虽然基于脉冲神经网络 (SNN) 的神经形态计算架构作为实现生物可信机器学习的途径越来越受到关注,但人们的注意力仍然集中在神经元和突触等计算单元上。从这种神经突触视角出发,本文试图探索神经胶质细胞,特别是星形胶质细胞的自我修复作用。这项工作调查了与星形胶质细胞计算神经科学模型的更强相关性,以开发具有更高生物保真度的宏观模型,准确捕捉自我修复过程的动态行为。硬件-软件协同设计分析表明,生物形态星形胶质细胞调节有可能自我修复神经形态硬件系统中的硬件实际故障,并且在 MNIST 和 F-MNIST 数据集上的无监督学习任务中具有明显更好的准确性和修复收敛性。我们的实现源代码和训练模型可在 https://github.com/NeuroCompLab-psu/Astromorphic Self Repair 上找到。
摘要:随着机器学习和人工智能的持续快速发展,以及摩尔定律的日益临近,架构设计的新途径和新想法正在被创造和利用。其中一种途径是尽可能靠近用户(即在边缘)加速人工智能,以减少延迟并提高性能。因此,研究人员开发了低功耗人工智能加速器,专门用于加速边缘设备上的机器学习和人工智能。在本文中,我们概述了 2019 年至 2022 年之间的低功耗人工智能加速器。本文根据加速目标和功耗对低功耗人工智能加速器进行了定义。在本次调查中,我们介绍并讨论了 79 种低功耗人工智能加速器。所审查的加速器基于五个标准进行讨论:(i)功率、性能和功率效率,(ii)加速目标,(iii)算术精度,(iv)神经形态加速器,以及(v)行业与学术加速器。 CNN 和 DNN 是最受欢迎的加速器目标,而 Transformers 和 SNN 正在崛起。
神经形态工程已成为开发大脑启发式计算系统的一种有前途的途径。然而,传统的基于电子人工智能的处理器经常遇到与处理速度和散热相关的挑战。作为一种替代方案,已经提出了此类处理器的光学实现,利用光的固有信息处理能力。在光学神经形态工程领域探索的各种光学神经网络 (ONN) 中,脉冲神经网络 (SNN) 在模拟人脑的计算原理方面表现出显著的成功。光学 SNN 基于事件的脉冲特性提供了低功耗操作、速度、时间处理、模拟计算和硬件效率方面的功能,这些功能很难或不可能与其他 ONN 类型相匹配。在这项工作中,我们介绍了开创性的自由空间光学深度脉冲卷积神经网络 (OSCNN),这是一种受人眼计算模型启发的新方法。我们的 OSCNN 利用自由空间光学来提高功率效率和处理速度,同时保持模式检测的高精度。具体而言,我们的模型在初始层采用 Gabor 滤波器进行有效特征提取,并利用使用现成光学元件设计的强度到延迟转换和同步器等光学元件。OSCNN 在基准数据集(包括 MNIST、ETH80 和 Caltech)上进行了严格测试,显示出具有竞争力的分类准确性。我们的比较分析表明,OSCNN 仅消耗 1.6 W 的功率,处理速度为 2.44 毫秒,明显优于 GPU 上的传统电子 CNN,后者通常消耗 150-300 W,处理速度为 1-5 毫秒,并且与其他自由空间 ONN 相媲美。我们的贡献包括解决光学神经网络实现中的几个关键挑战。为了确保组件对准的纳米级精度,我们提出了先进的微定位系统和主动反馈控制机制。为了提高信号完整性,我们采用了高质量的光学元件、纠错算法、自适应光学和抗噪声编码方案。通过设计高速光电转换器、定制集成电路和先进的封装技术,优化了光学和电子元件的集成。此外,我们还利用高效、紧凑的半导体激光二极管,并开发了新颖的冷却策略,以最大限度地减少功耗和占地面积。
脉冲神经网络 (SNN) 的设计灵感来源于人类大脑,它是使用集成系统中的传统或新兴电子设备在硬件上实现高效、低成本和鲁棒的神经形态计算的最强大平台之一。在硬件实现中,人工脉冲神经元的构建是构建整个系统的基础。然而,随着摩尔定律的放缓,传统的互补金属氧化物半导体 (CMOS) 技术逐渐衰落,无法满足日益增长的神经形态计算需求。此外,由于 CMOS 器件的生物可行性有限,现有的人工神经元电路非常复杂。具有易失性阈值开关 (TS) 行为和丰富动态的忆阻器是超越 CMOS 技术模拟生物脉冲神经元并构建高效神经形态系统的有希望的候选者。本文回顾了有关 SNN 基础知识的最新进展。此外,我们回顾了基于 TS 忆阻器的神经元及其系统的实现,并指出了系统演示中从器件到电路需要进一步考虑的挑战。我们希望这篇综述可以为未来基于忆阻器的神经形态计算的发展提供线索和帮助。
I. I n t r o d u c t i o n神经形态计算旨在理解和适应自然界中神经体系结构的基本属性,以发现一种新的计算机体系结构模型,该模型本来可以适合于大脑启发的计算类别,这些计算挑战了Von Neu-Mann模型。这些属性包括完全集成的记忆和计算,精细的并行性,普遍反馈和复发,大量的网络粉丝,低精度和随机计算以及通常与学习相关的持续适应过程。这些属性还包括稀疏,基于尖峰的互动,以中介分布式通信。这种尖峰神经网络(SNN)自然会通过以异步,事件驱动的方式进行操作,而偏爱非活性状态和低延迟处理来提供能量效率。从该诉讼中产生的计算的重新思考以意想不到的方式与相关领域相交,例如机器学习,深度学习,人工智能,计算科学和计算机架构。正如这项调查的结果所示,诸如Loihi之类的芯片及其支持的工作量不适合在一个精心设计的框中,至少不是当今已被充分了解的盒子。
摘要 - 基于低功率事件的模拟前端(AFE)是建立用于边缘计算的有效端到端神经形态处理系统所需的关键组件。尽管已经开发了几种神经形态芯片来实现尖峰神经网络(SNN)并解决了广泛的感官处理任务,但只有少数通用的模拟前端设备可用于将模拟感官信号转换为尖峰并与神经型处理器相连。在这项工作中,我们提出了一种新颖的,高度可配置的模拟前端芯片,称为“ spaic”(用于模拟AI计算的信号到尖峰转换器),可提供通用双模式模式模拟信号对尖峰编码,并具有Delta调制和脉冲频率调制,并具有可调节频带。ASIC以180 nm的过程设计。它支持并编码各种信号,这些信号涵盖了4个数量级的频率,并提供了与现有神经形态处理器兼容的基于事件的输出。我们验证了ASIC的功能,并提出了表征芯片基本构件的初始硅测量结果。索引术语 - 神经形态,模拟前端(AFE),编码器,尖峰神经网络(SNN)
摘要 — 本次特别会议论文的目标是介绍和讨论不同的突破性技术以及新颖的架构,以及它们如何共同重塑人工智能的未来。我们的目标是全面概述受脑启发计算的最新进展,以及当使用超 CMOS 设备的新兴技术与超越冯诺依曼架构的新型计算范式相结合时,如何实现后者。我们讨论了铁电场效应晶体管 (FeFET)、相变存储器 (PCM) 和电阻式 RAM (ReRAM) 等不同的新兴技术,展示了它们在构建受自然启发的神经形态计算架构方面的良好能力。此外,本特别会议论文还讨论了各种新概念,如内存逻辑 (LIM)、内存处理 (PIM) 和脉冲神经网络 (SNN),以探索超越冯诺依曼计算对加速深度学习的深远影响。最后,将脑启发计算的最新趋势总结为算法、技术和应用驱动的创新,以比较不同的 PIM 架构。索引词 —FeFET、PCM、ReRAM、光子、神经形态、DNN、SNN、内存处理、新兴技术
在本文中,我们提出了一种新颖的独立混合脉冲卷积神经网络 (SC-NN) 模型,并在图像修复任务上进行了测试。我们的方法利用 SNN 的独特功能(例如基于事件的计算和时间处理)以及 CNN 强大的表示学习能力来生成高质量的修复图像。该模型在专为图像修复设计的自定义数据集上进行训练,其中使用蒙版创建缺失区域。混合模型由 SNNConv2d 层和传统 CNN 层组成。SNNConv2d 层实现泄漏积分和发射 (LIF) 神经元模型,捕捉脉冲行为,而 CNN 层捕捉空间特征。在本研究中,均方误差 (MSE) 损失函数演示了训练过程,其中训练损失值为 0.015,表示在训练集上的表现准确,并且模型实现了低至 0 的验证损失值。 0017 的测试结果。此外,大量的实验结果证明了其最先进的性能,展示了在单个网络中集成时间动态和特征提取进行图像修复的潜力。
深度学习时代通过利用广泛传感器产生的大数据和不断增长的计算能力,为无处不在的机器人应用提供了巨大的机会。而对自然人机交互 (HRI) 的日益增长的需求以及对能源效率、实时性能和数据安全的关注,则推动了新的解决方案的产生。在本文中,我们提出了一种基于大脑启发式脉冲神经网络 (SNN) 的人机听觉接口,即 HuRAI。HuRAI 将语音活动检测、说话人定位和语音命令识别系统集成到一个统一的框架中,该框架可以在新兴的低功耗神经形态计算 (NC) 设备上实现。我们的实验结果证明了 SNN 的卓越建模能力,可以对每个任务实现准确而快速的预测。此外,能源效率分析揭示了一个引人注目的前景,与在最先进的 Nvidia 图形处理单元 (GPU) 上运行的等效人工神经网络相比,其能源节省高达三个数量级。因此,将大规模 SNN 模型的算法能力与 NC 设备的能源效率相结合,为实时、低功耗机器人应用提供了一种有吸引力的解决方案。2021 Elsevier BV 保留所有权利。