鉴于数据量的越来越多,有一个显着的研究重点是硬件,可提供低功耗的高计算性能。值得注意的是,神经形态计算,尤其是在利用基于CMO的硬件时,已经表现出了有希望的研究成果。此外,越来越强调新兴突触设备(例如非挥发性记忆(NVM)),目的是实现增强的能量和面积效率。在这种情况下,我们设计了一个硬件系统,该硬件系统采用了1T1R突触的一种新兴突触。Memristor的操作特性取决于其与晶体管的配置,特别是它是位于晶体管的源(MOS)还是排水口(MOS)。尽管其重要性,但基于Memristor的操作电压的1T1R配置的确定仍然不足以在现有研究中探索。为了实现无缝阵列的扩展,至关重要的是要确保单位单元格适当设计以从初始阶段可靠地操作。因此,对这种关系进行了详细研究,并提出了相应的设计规则。香料模型。使用此模型,确定最佳晶体管选择并随后通过仿真验证。为了证明神经形态计算的学习能力,实现了SNN推理加速器。此实现利用了一个基于在此过程中开发的验证的1T1R模型构建的1T1R数组。使用降低的MNIST数据集评估了精度。结果证明了受大脑功能启发的神经网络操作成功地在高精度而没有错误的硬件中实现。此外,在DNN研究中通常使用的传统ADC和DAC被DPI和LIF神经元取代,从而实现了更紧凑的设计。通过利用DPI电路的低通滤波器效应来进一步稳定该设计,从而有效地降低了噪声。
抽象物理储层计算(RC)代表一个计算框架,可利用可编程物质的信息处理能力,从而实现具有快速学习和低训练成本的能源有效神经形态硬件。尽管自组织的回忆网络已被证明是物理储层,能够从时空输入信号中提取相关特征,但多发纳米网络为计算实施的新型策略开辟了可能性。在这项工作中,我们报告了Materia RC的实施策略,并具有自组装的回忆网络。除了显示自组织纳米线网络的时空信息处理能力外,我们还通过模拟显示,新兴的集体动力学允许RC非常规实现,其中相同的电极可以用作储层输入和输出。通过在数字识别任务上比较不同的实施策略,模拟表明,非常规实现允许降低硬件复杂性,而无需限制计算能力,从而为在Materia计算中充分利用的新见解提供了对神经形态系统合理定义的全面优势。
抽象物理储层计算(RC)代表一个计算框架,可利用可编程物质的信息处理能力,从而实现具有快速学习和低训练成本的能源有效神经形态硬件。尽管自组织的回忆网络已被证明是物理储层,能够从时空输入信号中提取相关特征,但多发纳米网络为计算实施的新型策略开辟了可能性。在这项工作中,我们报告了Materia RC的实施策略,并具有自组装的回忆网络。除了显示自组织纳米线网络的时空信息处理能力外,我们还通过模拟显示,新兴的集体动力学允许RC非常规实现,其中相同的电极可以用作储层输入和输出。通过在数字识别任务上比较不同的实施策略,模拟表明,非常规实现允许降低硬件复杂性,而无需限制计算能力,从而为在Materia计算中充分利用的新见解提供了对神经形态系统合理定义的全面优势。
神经形态计算最近已成为传统的von Neumann计算机范式的潜在替代方法,该范式由于其建筑瓶颈而固有地受到限制。因此,需要新的人工组件和用于脑启发的计算硬件实现的架构。双极模拟熟悉设备,其电阻(或电导)可以连续调节(作为突触重量),是人工突触应用的潜在候选者。在这项工作中,混合离子电子导电氧化物(La 2 NiO 4+δ,L2NO4)与TIN和PT电极结合使用。TIN/L2NO4/PT设备显示双极电阻开关,以及用于集合和复位过程的逐渐过渡。电阻(电导)可以通过脉冲幅度和持续时间逐渐调节,显示出良好的数据保留特征。通过实验测量电阻变化和总应用脉冲持续时间之间的线性关系。此外,突触抑郁和增强特征是生物共生的重要功能之一,是为这些设备人为复制的,然后在尖峰神经网络环境中进行了建模并成功测试。这些结果表明使用TIN/L2NO4/PT回忆设备作为神经形态计算中的长期人造突触的适用性。
神经网络的硬件实现是利用神经形态数据处理优势和利用与此类结构相关的固有并行性的里程碑。在这种情况下,具有模拟功能的忆阻设备被称为人工神经网络硬件实现的有前途的构建块。作为传统交叉架构的替代方案,在传统交叉架构中,忆阻设备以自上而下的方式以网格状方式组织,神经形态数据处理和计算能力已在根据生物神经网络中发现的自组织相似性原理实现的网络中得到探索。在这里,我们在图论的理论框架内探索自组织忆阻纳米线 (NW) 网络的结构和功能连接。虽然图度量揭示了图论方法与几何考虑之间的联系,但结果表明,网络结构与其传输信息能力之间的相互作用与与渗透理论一致的相变过程有关。此外,还引入了忆阻距离的概念来研究激活模式和以忆阻图表示的网络信息流的动态演变。与实验结果一致,新出现的短期动力学揭示了具有增强传输特性的自选择通路的形成,这些通路连接受刺激区域并调节信息流的流通。网络处理时空输入信号的能力可用于在忆阻图中实现非常规计算范式,这些范式充分利用了生物系统中结构和功能之间的固有关系。© 2022 作者。由 Elsevier Ltd. 出版。这是一篇根据 CC BY 许可开放获取的文章(http://creativecommons.org/licenses/by/4.0/)。
神经网络的硬件实现是利用神经形态数据处理优势和利用与此类结构相关的固有并行性的里程碑。在这种情况下,具有模拟功能的忆阻设备被称为人工神经网络硬件实现的有前途的构建块。作为传统交叉架构的替代方案,在传统交叉架构中,忆阻设备以自上而下的方式以网格状方式组织,神经形态数据处理和计算能力已在根据生物神经网络中发现的自组织相似性原理实现的网络中得到探索。在这里,我们在图论的理论框架内探索自组织忆阻纳米线 (NW) 网络的结构和功能连接。虽然图度量揭示了图论方法与几何考虑之间的联系,但结果表明,网络结构与其传输信息能力之间的相互作用与与渗透理论一致的相变过程有关。此外,还引入了忆阻距离的概念来研究激活模式和以忆阻图表示的网络信息流的动态演变。与实验结果一致,新出现的短期动力学揭示了具有增强传输特性的自选择通路的形成,这些通路连接受刺激区域并调节信息流的流通。网络处理时空输入信号的能力可用于在忆阻图中实现非常规计算范式,这些范式充分利用了生物系统中结构和功能之间的固有关系。© 2022 作者。由 Elsevier Ltd. 出版。这是一篇根据 CC BY 许可开放获取的文章(http://creativecommons.org/licenses/by/4.0/)。
自从 20 世纪中叶麦卡洛克-皮茨神经元 1 和感知器 2 模型诞生以来,人工智能 (AI) 或人工神经网络 (ANN) 在很大程度上仍然是一个计算机科学术语。由于计算能力不足,本世纪后期的进展受到阻碍。1980-2000 年期间的集成电路制造无法在单个处理器和内存芯片上高密度集成晶体管。因此,在深度神经网络 (DNN) 或深度卷积神经网络 (DCNN) 3 上运行模拟并存储指数级累积的数据在时间和能源成本方面是不切实际的,尽管当时 ANN 模型已经相对完善 4-10 。随着芯片密度的提升以及对摩尔定律的追求带来的图形处理单元 (GPU) 等多核处理器的出现,再加上更高效的 ANN 算法 3,11,12,计算能力瓶颈在本世纪初得到成功解决。2012 年,具有十亿个连接的 DNN 被证明能够识别猫和人体等高度概念化的物体 13。同年,DNN 被证明在图像分类准确率方面与人类不相上下(基于 MNIST 数据库),甚至在交通标志识别方面也超越了人类 14。脉冲神经网络 (SNN) 由 Maass 于 1995 年提出 15,16,它采用脉冲
这些问题并能够用脑般的表现使序列学习是具有脑启发的学习算法的神经形态硬件。分层时间内存(HTM)是受新皮层工作原理启发的al-gorithm,能够学习和预测元素的连续序列。在先前的研究中,我们表明,在HTM模型的时间内存储算法的生物学上可用版本中,可以将备忘录的设备(一种用于节能的神经形态硬件考虑)被认为是为了节能的神经形态硬件。随后,我们对模拟信号的回忆硬件体系结构进行了模拟研究,该研究可以介绍时间学习算法。我们称之为memspikingtm的架构是基于一个磁带横梁阵列和实现神经元的控制电路和
在人工智能(AI)和物联网(IoT)时代,包括图像,声音,气味和伤害在内的大量感官数据是从外部环境中感知的,对以数据为中心任务的处理速度和能源效率施加了关键要求。1 - 3,尽管已经做出了巨大的努力来提高von Neumann计算机的计算能力和效率,但物理分离的处理和内存单元之间的恒定数据不可避免地会消耗巨大的能量并诱导计算潜伏期。4 - 9另外,基于人工神经网络(ANN)的人脑启发的神经形态计算已经证明了其在AI和机器学习等数据密集应用中的巨大优势。必须开发ANN的硬件实施,即人工突触和神经元,以模仿生物突触和神经元的生理活性。近年来,已经提出了各种神经形态设备,10 - 13,由于其简单的结构,高积分密度,高运行速度,低能量消耗和模拟行为,两个末端的内置构件被认为是最有希望的候选者。1,2,7,8,14 - 17尤其是,最近具有挥发性阈值转换(TS)行为的新型扩散的回忆录已证明它们在泄漏的整合和火灾(LIF)神经元中的潜力,5,7,18,19,19
混合忆阻器-CMOS神经元用于全硬件忆阻脉冲神经网络的原位学习 张旭萌 #1,2,3、陆建 #2、王睿 2,3、魏劲松 2、石拓 2,4、窦春梦 2,3、吴祖恒 2,3、尚大山 2,3、幸国忠 2,3、刘奇*1,2、刘明 1,2 1 复旦大学前沿芯片与系统研究所,上海 200433,中国,2 中国科学院微电子研究所微电子器件与集成技术重点实验室,北京 100029,中国,3 中国科学院大学,北京 100049,中国,4 浙江实验室,杭州 311122。 E-mail: qi_liu@fudan.edu.cn #这些作者对这项工作做出了同等贡献。摘要:
