我们打算证明,我们可以构建专用硬件,使用忆阻器和忆电容将神经网络直接映射到该硬件上,从而提高网络的能源效率。我们将使用以集成电路为重点的模拟程序 (SPICE) 来模拟我们的忆电容和忆阻器。使用此模型,我们将创建一个忆阻和忆电容元件的储存器,并在一系列忆电容与忆阻器比率中评估我们的设计,同时测试储存器结构,包括小世界、交叉开关、随机、分层和幂律实现。我们假设我们的设计将大大提高神经网络的能源效率和性能。
随着机器人技术和人工智能的快速和不可阻挡的演变,在现实世界中有效的统一导航已成为文献中最紧迫的挑战之一。但是,苛刻的要求,例如实时操作,能源和构成效率,鲁棒性和可靠性,使最新的解决方案不适合现实世界中的挑战。因此,研究人员被迫寻求创新的方法,例如生物启发的解决方案。的确,动物具有有效感知,理解和浏览其非结构化环境的内在能力。这样做,他们在认知过程中利用自我运动提示,本体感受和视觉流程来绘制其环境并将自己定位在其中。计算神经科学家的目的是回答“如何”和“为什么”这种认知过程发生在大脑中,以设计模仿生物学处理的新型神经形态传感器和方法。这项调查旨在全面审查脑启发策略在自主导航中的应用,考虑:神经形态感知和异步事件处理,能量和适应性学习,或模仿大脑领域的工作原理,在导航中起着至关重要的作用,例如hippococappampumant或hippocappampumant nectorhinal cort cort cort cort cort cort cort cort cort cort cort cort cort。
用于人工智能和神经形态计算的光子学 1 2 Bhavin J. Shastri a,b,g,h , Alexander N. Tait c,b,g,h , Thomas Ferreira de Lima b , Wolfram HP Pernice d , Harish 3 Bhaskaran e , C. David Wright f , Paul R. Prucnal b 4 5 a 加拿大皇后大学物理、工程物理与天文学系,加拿大安大略省金斯顿 KL7 3N6 6 b 普林斯顿大学电气工程系,美国新泽西州普林斯顿 08544 7 c 美国国家标准与技术研究所应用物理部,美国科罗拉多州博尔德 80305 8 d 德国明斯特大学物理研究所,德国明斯特 48149 9 e 牛津大学材料系,英国牛津 OX1 3PH 10 f 埃克塞特大学工程系,埃克塞特 EX4 4QF,英国 11 g 这些作者对本文做出了同等贡献。 12 h shastri@ieee.org;alexander.tait@nist.gov 13 14 由于光子集成平台上光电元件的激增,光子计算研究蓬勃发展。光子集成电路已经实现了超快的人工神经网络,为新型信息处理机器提供了框架。在这种硬件上运行的算法有可能满足医疗诊断、电信、高性能和科学计算等领域对机器学习和人工智能日益增长的需求。与此同时,神经形态电子学的发展凸显了该领域的挑战,特别是与处理器延迟相关的挑战。神经形态光子学提供亚纳秒级的延迟,为扩展人工智能领域提供了互补机会。在这里,我们回顾了集成光子神经形态系统的最新进展,讨论了当前和未来的挑战,并概述了应对这些挑战所需的科学和技术进步。 25 26 传统计算机围绕集中式处理架构(即具有中央处理器 27 和内存)组织,适合运行顺序、数字、基于过程的程序。这种架构对于分布式、大规模并行和自适应的计算模型效率低下,最明显的是用于人工智能 (AI) 中神经网络的计算模型。人工智能试图在这些对传统计算机来说具有挑战性但对人类来说很容易的任务上接近人类水平的准确度。基于神经网络的机器学习 (ML) 算法已经取得了重大成就 [ 1 ],它以分布式 32 方式处理信息并适应过去的输入,而不是由程序员明确设计。机器学习已经影响了我们生活的许多方面,其应用范围从翻译语言 [ 2 ] 到癌症诊断 [ 3 ]。神经形态工程在一定程度上试图将机器学习和人工智能算法的元素转移到能反映其大规模分布特性的硬件上。将硬件与算法相匹配可能会使信息处理速度更快、更节能。神经形态硬件也适用于机器学习之外的问题,例如机器人控制、数学规划和神经科学假设检验 [4,5]。与其他计算机架构相比,大规模分布式硬件在很大程度上依赖于集中元件(即神经元)之间的大规模并行互连。每个连接都专用的金属线是不切实际的。因此,当前最先进的神经形态电子设备使用某种形式的时分复用的共享数字通信总线,用带宽换取互连 [4]。光互连可以消除这种权衡,从而有可能加速机器学习和神经形态计算。 43 44 光已成为电信和数据中心的通信媒介,但在信息处理和计算领域尚未得到广泛应用。光电元件在通信方面表现出色,但其特性与数字门的要求却相矛盾 [6]。然而,非数字计算模型(如神经网络)更适合在光子学中实现。神经形态光子处理器的目标不应是取代传统计算机,而应实现传统计算技术目前无法实现的应用,特别是那些需要低延迟、高带宽和低能耗的应用 [7]。超快神经网络的应用示例包括:51 52 • 实现基础物理学的突破:量子比特读出分类 [ 8 ]、高能粒子碰撞 53 分类 [ 9 , 10 ]、聚变反应堆等离子体控制 [ 11 ] 54 • 非线性规划:解决非线性优化问题(机器人、自动驾驶汽车、预测 55 控制)[ 12 ] 和偏微分方程 [ 13 ] 5643 44 光已成为电信和数据中心的通信媒介,但在信息处理和计算领域尚未得到广泛应用。光电元件在通信方面表现出色,但其特性与数字门的要求却相矛盾 [6]。然而,非数字计算模型(如神经网络)更适合在光子学中实现。神经形态光子处理器的目标不应是取代传统计算机,而应实现传统计算技术目前无法实现的应用,特别是那些需要低延迟、高带宽和低能耗的应用 [7]。超快神经网络的应用示例包括:51 52 • 实现基础物理学的突破:量子比特读出分类 [ 8 ]、高能粒子碰撞 53 分类 [ 9 , 10 ]、聚变反应堆等离子体控制 [ 11 ] 54 • 非线性规划:解决非线性优化问题(机器人、自动驾驶汽车、预测 55 控制)[ 12 ] 和偏微分方程 [ 13 ] 5643 44 光已成为电信和数据中心的通信媒介,但在信息处理和计算领域尚未得到广泛应用。光电元件在通信方面表现出色,但其特性与数字门的要求却相矛盾 [6]。然而,非数字计算模型(如神经网络)更适合在光子学中实现。神经形态光子处理器的目标不应是取代传统计算机,而应实现传统计算技术目前无法实现的应用,特别是那些需要低延迟、高带宽和低能耗的应用 [7]。超快神经网络的应用示例包括:51 52 • 实现基础物理学的突破:量子比特读出分类 [ 8 ]、高能粒子碰撞 53 分类 [ 9 , 10 ]、聚变反应堆等离子体控制 [ 11 ] 54 • 非线性规划:解决非线性优化问题(机器人、自动驾驶汽车、预测 55 控制)[ 12 ] 和偏微分方程 [ 13 ] 56
图 1:机器人硬件和基于事件的视频。(A)移动机器人由带有 DAVIS346 事件摄像头的 TurtleBot3 Burger 构成。装有 48 个 SpiN-Naker 芯片的 Spinn-5 板(59)用于模拟我们的 SNN 模型。(B)该模型使用机器人在具有不同视觉混乱程度的自然环境中行驶时记录的数据进行训练/测试。(C)每当像素改变强度时,摄像头就会连续产生“事件”。'x' 和 'y':像素地址,'t':时间(来自原始 DAVIS 输出的纳秒时间分辨率),'on':从暗到亮的变化,'off':从亮到暗的变化。(D)传统视频具有固定速率的静态强度帧。(E)在向前运动期间集成“事件”,可以在事件摄像机的运动“帧”中可视化场景。红色和蓝色代表事件的极性,如图 (C) 所示。
摘要:微电子计算机在满足当今所有信息处理需求方面遇到了挑战。满足这些需求将需要开发采用替代处理模型和新设备物理的非传统计算机。神经网络模型已成为现代机器学习算法的主导,并且已经开发出专门的电子硬件来更有效地实现它们。硅光子集成行业有望将通常为微电子保留的制造生态系统带入光子学。光子器件已经找到了简单的模拟信号处理利基,其中电子器件无法提供足够的带宽和可重构性。为了解决更复杂的信息处理问题,它们必须采用
摘要:神经形态计算已成为克服传统数字处理器冯诺依曼架构局限性的最有前途的范例之一。神经形态计算的目的是忠实地再现人脑中的计算过程,从而与其出色的能效和紧凑性相媲美。然而,要实现这一目标,必须面对一些重大挑战。由于大脑通过超低功耗的高密度神经网络处理信息,因此必须开发结合高可扩展性、低功耗操作和先进计算功能的新型设备概念。本文概述了神经形态计算中最有前途的设备概念,包括互补金属氧化物半导体 (CMOS) 和忆阻技术。首先,将讨论基于 CMOS 的浮栅存储器在人工神经网络中的物理和操作。然后,将回顾和讨论几种忆阻概念在深度神经网络和脉冲神经网络架构中的应用。最后,将讨论神经形态计算的主要技术挑战和前景。
神经形态系统市场仍然相对年轻,但市场规模增长迅速。最近的报告 1 估计,这个市场将在 2029 年增长到 8.22 亿美元。到 2034 年,市场规模预计将达到 84 亿美元。虽然在未来几年神经形态技术在 AI 芯片收入中的份额只占很小的一部分(<0.3%),但预计到 2035 年将增加到 18% 2,3 。除了芯片设计本身之外,更多领域将为 AI 芯片周围的价值链做出贡献(例如设计和集成工具、基于事件的传感器等)。因此,有必要在这个领域进行及时定位,以催化和协助系统性增长。STANCE 将促进成熟和多样化的神经形态生态系统的发展,为工业应用做好准备。
神经形态计算代表了人工智能的一种变革性方法,利用大脑启发式架构来提高能源效率和计算性能。本文探讨了神经形态系统背后的原理和创新,这些系统模仿了生物大脑的神经结构和过程。我们讨论了这些架构在处理信息方面比传统冯·诺依曼模型更高效的优势,特别是在涉及模式识别、感官处理和自适应学习的任务中。通过将神经科学的概念与尖端硬件开发(例如脉冲神经网络和忆阻器)相结合,神经形态计算解决了人工智能应用中功耗和可扩展性的关键挑战。本综述重点介绍了最近的进展、正在进行的研究工作以及潜在的未来方向,说明了神经形态计算如何通过使系统不仅更快、更高效,而且还能够在动态环境中进行实时学习和决策来重新定义人工智能的格局。关键词:神经形态计算、节能人工智能、脑启发式架构、人工智能、神经网络、脉冲神经网络、低功耗计算、类脑处理、认知计算、硬件加速、机器学习、模拟计算、并行处理、自适应学习、边缘计算、生物启发系统、智能传感器、计算神经科学、突触处理、机器人应用、事件驱动计算、神经形态芯片、高效算法、弹性系统、自组织网络。
•高露山大学,纽约州哈姆尔顿•MIT和MIT LL,马萨诸塞州波士顿•Nist,Boulder,Co•UCSD,UCSD,UCSD,加利福尼亚州圣地亚哥,加利福尼亚州•USC,加利福尼亚州洛杉矶,加利福尼亚州•Suny Stony Brook,Suny Stony Brook,Stony Brook ny•Yokohama University,Yokohama University,Yokohama,Yokohama,Japan,Tohoku,Tohoku,Tohoku,tohoku dive,•
神经形态计算会影响大脑,以创建能够进行高度复杂任务的信息处理的节能硬件。使用常规电子设备构建的系统通过模仿大脑的分散拓扑来获得节奏和能量的收益。将这种安排扩展并提高其能量使用,性能和速度几个数量级需要一场硬件革命。神经形态计算。我们使用电阻性开关元素,光子学,旋转三位技术和其他技术来审查具有利用物理学来提高人工神经网络的计算能力的令人印象深刻的结果。我们研究可能影响这些可能实时推断和获取的低功率,微型芯片的成熟方法的途径。