(未通过同行评审认证)是作者/资助者。保留所有权利。未经许可就不允许重复使用。此预印本版的版权持有人于2024年6月27日发布。 https://doi.org/10.1101/2024.06.25.600722 doi:Biorxiv Preprint
图 2:混合算法 [19](图 (a) 和 (b))和 ATiTA(P)(图 (c) 和 (d))的示意图。图 (a) 和 (c) 代表神经网络的观点,而 PU 的观点则显示在图 (b) 和 (d) 中。由于膜电位或强度的整合,所有地方的脉冲都用红色表示,突触传递事件用橙色表示,下一个脉冲的预测用绿色表示。对于 ATiTA(P),灰色也表示计算后丢弃的潜在脉冲。在 (a) 中,由于大小为 T com 的突触延迟,下一个大小为 T com 的容器中的神经元会接收脉冲,然后对其进行整合以计算膜电位。在 (b) 中,每个 PU 的计算都是按大小为 T com 的容器进行的,并且需要在每个 T com 进行同步。根据 PU 的数量,一些 PU 可能会等待其他 PU,而不会在每个线程上进行大量计算,因此它们的负载较低。在 (c) 中,对于 ATiTA(P),在网络级别使用离散事件方法:计算会跳转到下一个潜在尖峰。最小的尖峰被保留为实际的下一个尖峰。然后,仅对突触后神经元进行突触传递、相应强度的更新和下一个潜在尖峰的新计算。在 (d) 中,(c) 的不同操作按单个线程在单个 PU 上执行的连续操作的顺序排列,因此单个 PU 会随着时间的推移满负荷运行。请注意,两种算法(混合算法和 ATiTA(P))都具有时间精度,可以是经典的数值精度 10 15,从这个意义上讲,它们都计算连续时间。
物联网环境中用于能源管理的无线传感器网络模拟 摘要 “物联网” (IoT) 一词指的是物理设备、传感器和控制器可以通过互联网进行通信的想法 [1]。众所周知,大多数物联网节点都受到能源限制,尤其是在无线网络中。本文提出了一种物联网环境中无线网络的模拟模型。模拟中使用了异构节点。本研究提出的模拟涉及三种技术。初始策略旨在最小化物联网环境中的数据传输。第二种方法规划了必要物联网节点的职责。第三种方法是最后一种方法,它为物联网节点中可能出现的能源相关问题提供容错能力。通过在物联网环境中实施这些策略,可以显著减少能源消耗。NS2 网络模拟器用于测试建议的模拟。模拟结果表明,就吞吐量、能耗率、数据包丢失和网络寿命而言,建议的方法优于已建立的物联网系统。
在大脑中,信号的事件驱动性质和以尖峰信号形式编码的信息允许以很少的能量执行巨大的数据处理过程。因此,神经网络研究正在发展为接近生物学模型。很长一段时间以来,将通过基于尖峰的计算模型来实现神经网络的未来。在尖峰神经网络中,信息在尖峰信号中编码。将信息作为尖峰列车保留,可以像标准的计算机体系结构一样以二进制形式表示信息,但以时间依赖的方式表示。这降低了信息的传输和处理成本。出于所有这些原因,峰值计算模型的计算和能量效率高于前几代。
开发智能神经形态解决方案仍然是一项具有挑战性的任务。它需要对硬件的基本构建块有扎实的概念理解。除此之外,易于访问且用户友好的原型设计对于加快设计流程至关重要。我们基于神经网络模拟器 Brian 开发了一个开源 Loihi 模拟器,可以轻松将其纳入现有的模拟工作流程。我们在软件中演示了单个神经元和循环连接的脉冲神经网络的无错误 Loihi 模拟。我们还审查并实施了片上学习,由于随机舍入,存在合理的差异。这项工作提供了 Loihi 计算单元的连贯介绍,并介绍了一个新的、易于使用的 Loihi 原型设计包,旨在帮助简化新算法的概念化和部署。
⋆ 注意:本稿件部分由 UT-Battelle, LLC 撰写,合同编号为 DE-AC05-00OR22725,与美国能源部签订。美国政府保留,出版商在接受文章发表时,承认美国政府保留非独占、已付费、不可撤销的全球许可,以出版或复制本稿件的已出版形式,或允许他人这样做,用于美国政府目的。能源部将根据 DOE 公共访问计划 (http://energy.gov/downloads/doe-public-access-plan) 向公众提供这些联邦资助研究的结果。⋆⋆ 本材料基于美国能源部科学办公室高级科学计算研究办公室支持的工作,合同编号为 DE-AC05-00OR22725。本研究使用了橡树岭领导计算设施的资源,该设施是美国能源部科学办公室用户设施,合同编号为 DE-AC05-00OR22725。本研究使用了橡树岭国家实验室的科学计算和数据环境 (CADES) 资源,该环境由美国能源部科学办公室支持,合同编号为 DE-AC05-00OR22725。我们要感谢 Chris Layton 对我们使用 CADES Cloud 的支持。我们还要感谢 Bill Kay 对图形算法的贡献。
我们详细介绍了最近在 [VV Kuzmin et. al. , npj Quantum Information 5, 115 (2019)] 中设计的用于半解析描述大规模量子中继器网络的图解技术。该技术考虑了所有基本的实验缺陷,包括网络量子存储器的连续耗散刘维尔动力学和经典通信延迟。使用半解析方法获得的结果与精确的蒙特卡洛模拟相符,而所需的计算资源仅与网络规模成线性关系,因此可以对受到相关现实缺陷影响的大规模量子网络进行精确的比较和优化。我们通过针对一系列网络规模和存储器相干时间优化 1D 和 2D 量子网络中的密钥速率来说明该方法的潜力。所提出的方法为未来量子网络的开发和有效优化开辟了新的可能性。
使用基于光频率梳的量子多模资源模拟复杂量子网络 Valentina Parigi J. Nokkala、F. Arzani、F. Galve、R. Zambrini、S. Maniscalco、J. Piilo、C. Fabre、N. Treps,我们目前正在开发一个多功能实验光子平台,用于模拟复杂的量子网络。该平台由基于光频率梳泵浦的参数过程的内在多模系统组成。这些激光器的光谱由数十万个频率成分构成。非线性晶体中的参数过程将所有这些光频率耦合起来,并产生非平凡的多模高斯量子态 [1]。这些也可以同样描述为一组不同的光的光谱-时间模式,可以单独寻址并同时被压缩真空占据。这种资源可以被描绘成一个网络,其中每个节点都是一个电磁场模式,连接是涉及场正交的纠缠关系。网络结构将通过在参数化过程中塑造泵和多模同差测量来控制。该策略已部分用于在基于测量的量子计算场景中实现集群状态 [2,3]。多模状态的 Bloch-Messah 简化(对于纯态)将资源描述为单模压缩器和多端口干涉仪的集合,这是我将介绍的建立资源与复杂网络之间映射的方法的核心 [4]。我们将研究复杂结构中量子信息协议的优化,并模拟复杂有限量子环境的动态 [5]。最后,允许波长和时间多路复用的参数化过程的特定实现将模拟表现出社区结构的网络。