在过去的几十年里,量子计算和神经形态计算已经成为计算未来的两大主要愿景。量子计算利用纠缠和叠加等量子固有特性来设计比传统算法更快的算法来解决某些类型的问题。另一方面,神经形态计算从大脑中获得灵感,使用复杂的人工神经元和突触组合来模仿动物智能,以低能耗进行更快的计算。在本文中,我们回顾了这两个领域之间的不同融合,特别关注量子硬件上神经形态计算的实验实现。我们首先回顾了量子计算的两种主要方法,即基于门的量子计算和模拟量子计算。然后,我们概述了不同的受大脑启发的计算系统,包括在通用硬件上运行的人工神经网络和在专用硬件上运行的神经形态网络。在本文的核心部分,我们回顾了量子神经网络的不同提案和实验实现。我们将它们分为两类:数字的,在基于门的量子计算机上实现;模拟的,利用量子退火器的动态和更普遍的无序量子系统。量子计算的两种主要方法是基于数字门的量子计算和模拟量子计算(图 1)。基于门的量子计算使用由量子比特组成的量子电路,其状态通过量子门进行操纵。量子门是可逆的幺正操作,例如单个量子比特的旋转,或涉及两个或更多量子比特的条件门,可用于纠缠它们。基于门的量子计算机是
摘要:微电子计算机在满足当今所有信息处理需求方面遇到了挑战。满足这些需求将需要开发采用替代处理模型和新设备物理的非传统计算机。神经网络模型已成为现代机器学习算法的主导,并且已经开发出专门的电子硬件来更有效地实现它们。硅光子集成行业有望将通常为微电子保留的制造生态系统带入光子学。光子器件已经找到了简单的模拟信号处理利基,其中电子器件无法提供足够的带宽和可重构性。为了解决更复杂的信息处理问题,它们必须采用
神经形态计算领域的主要目标是构建机器,以并行且能量效率良好地执行复杂的任务,从而模仿大脑的各个方面。多亏了新的计算体系结构,这些机器可以彻底改变高性能计算,并找到对传感器和机器人进行本地低能计算的应用程序。在神经形态计算中使用有机和软材料在许多方面都具有吸引力,因为它允许更好地与生活物质整合到信号处理中无缝融合感应,并最终在封闭反馈回路中刺激。的确,有机材料的机械性能不仅可以与组织的机械性能相匹配,而且这些涉及离子的设备的工作机制(除电子外)与人类生理兼容。有机材料的另一个优点是潜在的潜力,可以引入依靠可与独一无二的形式相关的增材制造的新型制造技术。这个领域仍然很新生,因此,仍然提出了许多概念,而没有明显的赢家。此外,有机神经形态的应用领域(生物学和生物整合都非常吸引人)要求从材料到系统的共同设计方法。
从历史上看,记忆技术已根据其存储密度,成本和潜伏期进行了评估。除了这些指标之外,在低区域和能源成本中启用更智能和智能的计算平台的需求带来了有趣的途径,以利用非挥发性记忆(NVM)技术。在本文中,我们专注于非易失性记忆技术及其在生物启发的神经形态计算中的应用,从而实现了基于尖峰的机器智能。与先进的连续价值神经网络相比,基于离散的神经元“动作电位”的尖峰神经网络(SNN)不仅是生物纤维,而且是实现能量的有吸引力的候选者。nvms提供了实施几乎所有层次结构(包括设备,电路,体系结构和算法)几乎所有层次结构的区域和能量snn计算面料的承诺。可以利用NVM的内在装置物理学来模拟单个神经元和突触的动态。这些设备可以连接在密集的横杆状电路中,从而实现了神经网络所需的内存,高度平行的点产生计算。在架构上,可以以分布式的方式连接此类横梁,从而引入其他系统级并行性,这是与传统的Von-Neumann架构的根本性。最后,可以利用基于NVM的基础硬件和学习算法的跨层优化,以在学习和减轻硬件Inaccu-Racies方面的韧性。手稿首先引入神经形态计算要求和非易失性记忆技术。随后,我们不仅提供了关键作品的审查,而且还仔细仔细审查了从设备到电流到架构的不同抽象级别的各种NVM技术的挑战和机遇,以及硬件和算法的共同设计。
视觉和音频传感器处理目前主要由神经网络主导。与手工制作的特征提取/分类技术相比,这些技术更强大、更准确且更易于开发。它们的出现使大量应用程序成为可能,并开辟了新的市场和机会。我们专注于云边缘应用程序,尤其是实时人工智能,即从一个或多个传感器接收实时数据并快速响应环境变化、实时做出决策的应用程序。实时人工智能通常对时间(尤其是延迟)和功耗有严格的要求,因此无法卸载到云端。我们认为,处理实时人工智能神经网络的流行策略存在功率瓶颈,现有计算架构无法解决这一问题。NeuronFlow 通过采用神经形态工程的最新进展和数据流处理器的旧理念来弥补这一差距。最先进的视觉和音频传感器会生成大量时间采样数据。大多数市售视觉传感器都依赖于以等距(即周期性)时间间隔捕获完整图像(帧),而不管场景是否发生变化。此类传感器称为基于帧的。处理视觉传感器的算法通常遵循基于帧的结构,因为这既适合占主导地位的基于帧的传感器技术,也因为它能够重用单帧算法来处理帧序列,即,单个图片对象识别 DNN 可以逐帧应用于视频序列。因此,相同的无关背景对象会在帧之间被重复识别和分析。处理所有这些多余的数据会大大增加计算负荷,导致处理效率极低、耗电。如果图像传感的绝对计算要求满足,那么这不会是一个严重的问题
五十多年来,冯·诺依曼体系结构的灵活性(其中来自离散内存单元的数据作为操作和操作数到达专用计算单元)推动了系统性能的指数级提升。这些计算系统需要在执行计算任务期间高速来回传送大量数据。但是,随着设备缩放因功率和电压考虑而放缓,在内存和计算单元之间所谓的“冯·诺依曼瓶颈”上传输数据所花费的时间和能量已成为问题。这些性能瓶颈和明显的面积/功率效率低下对于以数据为中心的应用尤其不可避免,例如实时图像识别和自然语言处理,其中最先进的冯·诺依曼系统努力匹配普通人的表现。我们正处于人工智能 (AI) 和认知计算革命的风口浪尖,算法的进步使得深度神经网络 (DNN) 在模式识别、游戏、机器翻译等许多任务上接近甚至超越人类的表现。