这项工作旨在比较这三种SNN模型的模型保真度和学习绩效。用于体外生活神经网络的实验数据用于首先拟合这三个模型的参数。一种自动拟合工具用于匹配体外神经元和建模神经元的精确尖峰时序。alif和Adex可以比LIF更好地与生物神经元的尖峰时间匹配。然后将拟合模型在延迟任务上进行比较,在延迟任务中,网络需要输出最近输入网络中的值。为了计算延迟任务,使用神经工程框架(NEF)来实现Legendre内存单元。使用ALIF在延迟任务上证明了良好的性能,这表明在体外生活神经网络上实施算法的可能性。这项工作提出了一个新的神经元参数拟合
本报告是作为由美国政府机构赞助的工作的帐户准备的。既不是任何雇员,他们的任何雇员,其任何雇员,分包商或其雇员,都能对准确性,完整性或任何第三方使用或任何信息的使用结果,或代表其使用任何信息,私人或代表其使用权的保证,或承担任何法律责任或责任,或者任何第三方使用,或者没有任何信息,或代表其使用权,或代表其使用权,或代表其使用权限,或代表其使用权限。 以本文提及任何特定的商业产品,流程或服务,商标,制造商或其他方式不一定构成或暗示其认可,建议或受到美国政府或其任何机构或其承包商或其承包商或分包商的认可。 本文所表达的作者的观点和观点不一定陈述或反映美国政府或其任何机构的观点和意见。既不是任何雇员,他们的任何雇员,其任何雇员,分包商或其雇员,都能对准确性,完整性或任何第三方使用或任何信息的使用结果,或代表其使用任何信息,私人或代表其使用权的保证,或承担任何法律责任或责任,或者任何第三方使用,或者没有任何信息,或代表其使用权,或代表其使用权,或代表其使用权限,或代表其使用权限。以本文提及任何特定的商业产品,流程或服务,商标,制造商或其他方式不一定构成或暗示其认可,建议或受到美国政府或其任何机构或其承包商或其承包商或分包商的认可。本文所表达的作者的观点和观点不一定陈述或反映美国政府或其任何机构的观点和意见。
卷积神经网络(CNN)被广泛用于解决各种问题,例如图像分类。由于其计算和数据密集型性质,CNN加速器已被开发为ASIC或FPGA。应用程序的复杂性增加导致这些加速器的资源成本和能源需求增长。尖峰神经网络(SNN)是CNN实施的新兴替代品,有望提高资源和能源效率。本文解决的主要研究问题是,与CNN等效物相比,SNN加速器是否真正满足了能源需求减少的期望。为此,我们分析了多个SNN硬件加速器的FPGA,以涉及性能和能源效率。我们提出了一种新颖的尖峰事件队列编码方案和一种新型的记忆组织技术,以进一步提高SNN能源效率。这两种技术都已经融入了最先进的SNN体系结构,并对MNIST,SVHN和CIFAR-10数据集进行了评估,以及两个不同尺寸的现代FPGA平台上的相应网络体系结构。对于小型基准(例如MNEST),SNN设计与相应的CNN实施相比,没有相当或很少的延迟和能源效率优势。对于更复杂的基准测试,例如SVHN和CIFAR-10,趋势逆转。
在耦合微观聚结模型的输运模型中,研究了√ s NN = 2 . 4 GeV时20-30% Au+Au碰撞中心性中质子和氘的有向和椭圆流及其标度特性。研究发现,用同位旋和动量相关的核平均场(不可压缩率K 0 = 230 MeV)模拟的流动及其标度特性与HADES数据有很好的拟合度,而常用的动量无关的核平均场(不可压缩率K 0 = 380 MeV)模拟的流动及其标度特性只能部分拟合HADES数据。此外,通过检查√ s NN = 2时0-10% Au+Au碰撞中心性中质子和氘的快度分布,发现质子和氘的快度分布与HADES数据有很好的拟合度。 4 GeV,我们发现,使用动量独立的核平均场模拟低估了氘的快度分布,而高估了质子的快度分布。相比之下,使用同位旋和动量相关的核平均场模拟的质子和氘的快度分布与 HADES 数据高度一致。我们的发现意味着,核平均场的动量依赖性是理解核物质特性和成功解释 HADES 数据的一个不可避免的特征。
要获得癫痫发作的自由,癫痫手术需要完全切除癫痫脑组织。在术中电视学(ECOG)记录中,癫痫组织产生的高频振荡(HFO)可用于量身定制切除缘。但是,实时自动检测HFO仍然是一个开放的挑战。在这里,我们提出了一个尖峰神经网络(SNN),用于自动HFO检测,最适合神经形态硬件实现。我们使用独立标记的数据集(58分钟,16个记录),训练了SNN,以检测从术中ECOG测量的HFO信号。我们针对快速连锁频率范围(250-500 Hz)中HFO的检测,并将网络结果与标记的HFO数据进行了比较。我们赋予了SNN新型的伪影排斥机制,以抑制尖锐的瞬变并证明其在ECOG数据集中的有效性。该SNN检测到的HFO速率(中位数为6.6 HFO/ min)与数据集中发布的HFO率(Spearman'sρ= 0.81)相当。所有8例患者的术后癫痫发作结果被“预测”为100%(CI [63 100%])的精度。这些结果为建造实时便携式电池式HFO检测系统提供了进一步的一步,该检测系统可在癫痫手术期间使用,以指导癫痫发作区的切除。
摘要 - 迅速的神经网络(SNN)已获得了能源有效的机器学习能力,利用生物启发的激活功能和稀疏的二进制峰值数据表示。虽然最近的SNN算法进步在大规模的计算机视觉任务上达到了高度准确性,但其能源效率主张依赖于某些不切实际的估计指标。这项工作研究了两个硬件基准平台,用于大规模SNN推断,即SATA和Spikesim。SATA是一种稀疏感应的收缩阵列加速器,而Spikesim评估基于内存计算(IMC)的模拟横杆实现的SNN。使用这些工具,我们发现,由于各种硬件瓶颈,最近的SNN算法工作的实际能效提高与它们的估计值有很大差异。我们识别并解决了在硬件上有效的SNN部署的关键障碍,包括在时间段上的重复计算和数据移动,神经元模块开销和SNN易受跨键bar非理想性的脆弱性。
关键词;UTBB 28nm FD-SOI、模拟 SNN、模拟 eNVM、eNVM 集成。2. 简介基于新兴非易失性存储器 (eNVM) 交叉开关的脉冲神经网络 (SNN) 是一种很有前途的内存计算组件,在边缘低功耗人工智能方面表现出卓越的能力。然而,eNVM 突触阵列与 28nm 超薄体和埋氧全耗尽绝缘体上硅 (UTBB-FDSOI) 技术节点的共同集成仍然是一个挑战。在模拟脉冲神经网络 (SNN) 中,输入神经元通过一电阻一晶体管 (1T1R) 突触与输出神经元互连,计算是通过突触权重将电压尖峰转换为电流来完成的 [1]。神经元将尖峰积累到预定义的阈值,然后产生输出尖峰。神经元区分和容纳大量突触和输入脉冲的能力与神经元放电阈值的电压摆幅直接相关。这主要取决于膜电容、突触电荷的净数量和低功率神经元的阈值 [2]。
Los Alamos国家实验室是一项平权行动/均等机会雇主,由Triad National Security,LLC经营,为美国能源部国家核安全管理局根据合同89233218CNA000001运营。通过批准本文,出版商认识到,美国政府保留了不判有限定的免版税许可,以出版或复制已发表的此捐款形式,或者允许其他人出于美国政府的目的。洛斯阿拉莫斯国家实验室要求出版商根据美国能源部主持的工作确定这篇文章。Los Alamos国家实验室强烈支持学术自由和研究人员发表权;但是,作为一个机构,实验室并未认可出版物的观点或保证其技术正确性。
基于人工神经网络 (ANN) 的大型语言模型 (LLM) 表现出色,但在计算效率和生物可解释性方面面临挑战。我们提出了 BrainGPT,这是一种基于测试时间训练 (TTT) 框架并受到脉冲神经网络 (SNN) 和神经生物学原理启发的新型 LLM 架构。我们的方法采用双模型结构,模拟人脑中观察到的分层语言处理,并利用具有自适应阈值的专门积分和激发神经元模型。通过多阶段训练策略,包括量化感知预训练、ANN 到 SNN 的转换和受生物启发的无监督学习,我们实现了从 ANN 到 SNN 的数学证明的无损转换,保留了 100% 的原始 ANN 模型的性能。此外,受生物启发的无监督学习优化了维持 100% ANN 性能所需的最大时间步骤。与原始 TTT 模型相比,BrainGPT 的能源效率提高了 33.4%,训练收敛速度提高了 66.7%。这项工作推动了节能且可生物解释的大型语言模型的开发,这些模型的性能可与最先进的基于 ANN 的模型相媲美,同时显著改进了 TTT 框架。
摘要 — 迄今为止,脑启发式认知计算主要有两种方法:一种是使用多层人工神经网络 (ANN) 执行模式识别相关任务,另一种是使用脉冲神经网络 (SNN) 模拟生物神经元,以期达到与大脑一样高效和容错的效果。前者由于结合了有效的训练算法和加速平台而取得了长足的进步,而后者由于缺乏两者而仍处于起步阶段。与 ANN 相比,SNN 具有明显的优势,因为它们能够以事件驱动的方式运行,因此功耗非常低。最近的几项研究提出了各种 SNN 硬件设计方案,然而,这些设计仍然会产生相当大的能源开销。在此背景下,本文提出了一种涵盖设备、电路、架构和算法级别的综合设计,以构建用于 SNN 和 ANN 推理的超低功耗架构。为此,我们使用基于自旋电子学的磁隧道结 (MTJ) 设备,这种设备已被证明既可用作神经突触交叉开关,又可用作阈值神经元,并且可以在超低电压和电流水平下工作。使用这种基于 MTJ 的神经元模型和突触连接,我们设计了一种低功耗芯片,该芯片具有部署灵活性,可用于推理 SNN、ANN 以及 SNN-ANN 混合网络的组合——与之前的研究相比,这是一个明显的优势。我们在一系列工作负载上展示了 SNN 和混合模型的竞争性能和能源效率。我们的评估表明,在 ANN 模式下,所提出的设计 NEBULA 的能源效率比最先进的设计 ISAAC 高达 7.9 倍。在 SNN 模式下,我们的设计比当代 SNN 架构 INXS 的能源效率高出约 45 倍。 NEBULA ANN 和 SNN 模式之间的功率比较表明,对于观察到的基准,后者的功率效率至少高出 6.25 倍。索引术语 — 神经网络、低功耗设计、领域特定架构、内存技术