答案:C解释:复发性神经网络(RNN)是一类神经网络,节点之间的连接可以形成周期。此周期创建一个反馈循环,该循环允许网络维护内部状态或内存,该状态或内存持续到不同的时间步骤。这是RNN的关键特征,它将它们与其他神经网络区分开来,例如仅在一个方向上处理输入并且没有内部状态的前馈神经网络。rnns对于上下文或顺序信息很重要的任务特别有用,例如语言建模,时间序列预测和语音识别。保留先前输入信息的能力使RNN能够根据整个数据顺序做出更明智的预测,而不仅仅是当前输入。对比:选项A(它们并行处理数据)是不正确的,因为RNN通常会顺序处理数据,而不是并行处理。选项B(它们主要用于图像识别任务)是不正确的,因为图像识别更常见于卷积神经网络(CNN),而不是RNN。选项D(它们没有内部状态)是不正确的,因为具有内部状态是RNN的定义特征。此反馈循环是RNN的运行基础,并允许他们通过“记住”过去的输入来有效地处理数据序列以影响未来的输出。此内存功能使RNN适用于涉及顺序或时间相关数据的应用程序。
我们提出了一种高效且可扩展的分区方法,用于将具有局部密集和全局稀疏连接的大规模神经网络模型映射到可重构的神经形态硬件上。计算效率的可扩展性,即实际计算所花费的时间,在超大型网络中仍然是一个巨大的挑战。大多数分区算法还难以解决网络工作负载的可扩展性问题,即寻找全局最优分区并有效地映射到硬件上。由于通信被视为此类分布式处理中最耗能和最耗时的部分,因此分区框架针对计算平衡、内存高效的并行处理进行了优化,目标是低延迟执行和密集的突触存储,并尽量减少跨各个计算核心的路由。我们展示了高度可扩展且高效的分区,用于连接感知和分层地址事件路由资源优化的映射,与随机平衡分配相比,递归地显着减少了总通信量。我们展示了我们在具有不同稀疏度和扇出度的合成网络、小世界网络、前馈网络和果蝇大脑半脑连接组重建方面的成果。我们的方法和实际结果的结合表明,这是一条有希望扩展到超大规模网络和可扩展硬件感知分区的途径。
大多数人工智能算法在现有的计算系统上运行,例如中央处理单元(CPU),图形处理单元(GPU)和现场可编程可编程的门阵列(FPGAS)。(Batra,Jacobson,Madhav,Queirolo和Santhanam,2019年; Viswanathan,2020年),也正在开发用于加速机器学习的数字类型或模拟数字混合信号类型的应用特定的集成电路(ASIC)。然而,随着摩尔法律方法的扩展极限,通过现有扩展可以实现的性能和功率效率正在下降。需要一个特殊的处理器来在短时间内接受和处理学习数据,而该处理器是“ AI半导体”。AI半导体是专门针对效率的非内存半导体,以超高速度和超功率实施AI服务所需的大规模计算。AI半导体对应于核心大脑,学习数据并从中得出推断的结果。(Al-Ali,Gamage,Nanayakkara,Mehdipour,&Ray,2020; Batra等,2019; Esser,Appuswamy,Merolla,Arthur,&Modha,2015年)CPU是处理计算机所有输入,输出和命令处理的计算机的大脑。但是,对于需要大规模并行处理操作的AI,串行处理数据的CPU并未优化。为了克服这一限制,GPU已成为替代方案。gpu是针对3D游戏等高端图形处理开发的,但具有并行处理数据的特征,使其成为AI半导体之一。
摘要 大脑两侧的差异化专业化促进了信息的并行处理,这在很多动物中都有所体现。据报道,侧化程度更高的动物(表现为持续优先使用肢体)通常表现出优越的认知能力和其他行为优势。我们检测了 135 只幼年雉鸡 (Phasianus colchicus) 的侧化程度,通过它们在自发踏步任务中的足部特征来判断,并将这一指标与个体在 3 项视觉或空间学习和记忆检测中的表现联系起来。我们没有发现任何证据表明明显的足部特征会提高任何任务的认知能力。我们也没有发现任何证据表明中等的足部特征与更好的认知表现有关。这种缺乏关联令人惊讶,因为之前的研究表明,雉鸡在种群中略微偏向右足,而当被放归野外时,足部特征更高的个体更容易死亡。极端侧化受到限制的原因之一是,它会导致认知表现较差,或者最佳认知表现与某种中等程度的侧化有关。这种稳定的选择可以解释在大多数已研究的非人类物种中看到的中等侧化模式。然而,我们在这项研究中没有发现任何证据来支持这种解释。
摘要:RSA是最广泛采用的公钥加密算法之一,它通过利用模块化指数和大质量分解的数学属性来确保安全通信。但是,其计算复杂性和高资源要求对实时和高速应用构成重大挑战。本文通过提出针对RSA加密和解密的优化非常大规模的集成(VLSI)设计来解决这些挑战,重点是加速模块化凸起过程,这是RSA计算的核心。设计结合了蒙哥马利模块化乘法,以消除时间密集型的分裂操作,从而在模块化算术域中有效地计算。它进一步整合了诸如管道,并行处理和随身携带加盖之类的技术,以减少关键路径延迟并增强吞吐量。模块化启动是使用正方形和多种方法的可扩展迭代方法实现的,该方法针对硬件效率进行了优化。硬件原型是使用FPGA和ASIC平台合成和测试的,在速度,区域和功耗方面表现出卓越的性能。所提出的体系结构在保持安全性和可扩展性的同时,可以实现高速操作,使其适用于实时的加密应用程序,例如安全通信,数字签名和身份验证系统。与现有实现的比较分析突出了重大改进,将提出的设计作为下一代安全硬件加速器的可行解决方案。关键字:RSA算法,Verilog,FPGA
摘要 自主人工智能 (AI) 系统的存在是当今最令人着迷的发展之一。如果我们能够开发出能够观察、思考、推理、学习和体验的负责任且安全的机器,那么就可以节省大量的人力和精力来处理复杂的数据。心理健康领域可能会发生转变,因为整个系统将更加高效,而且人力资源可以用于执行机器无法完成的更复杂的任务。本文试图确定人工智能在心理学领域的重要性、其应用及其未来潜力。还讨论了人工智能的安全可靠使用、人工智能决策的可追溯性、隐私风险和安全风险。这一论点将阐明心理学和人工智能领域如何协同工作,从而为心理健康带来变革。关键词:人工智能、心理学中的人工智能、控制论、自创生理论、心理治疗。简介心理学是研究个人的心理过程和行为的学科。这包括行为中涉及的公开和隐蔽过程。作为一门心理科学,人工智能 (AI) 与心理学密切相关。心理学的复杂性与人工智能的动态性质的交织在最近一段时间内得到了推动。此外,技术的普及为信息技术工具取代人机交互铺平了道路。从查尔斯·巴贝奇的贡献到最新的并行处理理论,人们都在争论如何建立计算心理学这一分支。人工智能科学可以包括人类思维产生的所有事实。这一观念强化了心理学研究所有计算过程的观点,例如构造、
雅各布大学,校园环路 12,28759 不来梅,德国,{d.misev,p.baumann}@jacobs-university.de A BSTRACT 数据立方体是分析和可视化时空数据产品的公认基石。通过从特定于提供商的组织中抽象出无数文件,可以提高用户友好度。数据立方体查询语言还建立了可操作的数据立方体,使用户能够“随时”进行任何查询,而无需编写任何代码。然而,通常数据立方体部署的目标是大规模数据中心环境,以适应大数据和大规模并行处理能力,从而实现良好的性能。在本文中,我们反过来报告了一项降尺度实验。在 ORBiDANSE 项目中,数据立方体引擎 rasdaman 已移植到立方体卫星 ESA OPS-SAT 上,并在太空中运行。实际上,卫星因此成为一种数据立方体服务,提供 OGC 网络覆盖处理 (WCPS) 地理数据立方体分析语言的基于标准的查询功能。我们相信,这将为机载临时处理和过滤地球大气大数据铺平道路,从而在更短的时间内将其发布给更大的受众。 论文类型和关键词 简短交流:数据立方体、立方体卫星、卫星、阵列数据库、rasdaman、SQL/MDA 1 引言 获取大量地球观测卫星图像从未如此便宜,这有助于监测和了解我们的星球及其随时间的演变。同时,这也带来了许多挑战 [19]。
摘要:随着微电网 (MG) 中可再生能源渗透率的提高,使用电池储能系统 (BESS) 已成为实现微电网优化运行不可或缺的因素。尽管 BESS 有利于实现经济稳定的微电网运行,但为了最大限度地节省成本,应考虑其寿命衰减。本文提出了一种针对微电网的最优 BESS 调度方法,以解决随机机组组合问题,同时考虑到可再生能源和负荷的不确定性。通过提出的 BESS 调度,BESS 的寿命衰减被最小化,微电网运行在经济上变得可行。为了解决上述不确定性,我们采用了一种基于场景的方法,分别使用蒙特卡洛模拟和 K 均值聚类算法来生成和减少场景。通过实施雨流计数算法,我们获得了 BESS 的充电/放电状态曲线。为了制定循环老化应力函数并更真实地检查 BESS 的生命周期成本 (LCC),我们将非线性循环老化应力函数部分线性化。采用 Benders 分解来最小化 BESS 周期老化、总运营成本和 LCC。为此,将一般问题分解为主问题和子问题,以考虑不确定性并通过并行处理优化 BESS 充电/放电调度问题。为了证明所提出的 BESS 优化调度在 MG 运行中的有效性和优势,分析了不同的案例研究。仿真结果证实了所提出的调度的优越性和改进的性能。
神经形态计算代表了人工智能的一种变革性方法,利用大脑启发式架构来提高能源效率和计算性能。本文探讨了神经形态系统背后的原理和创新,这些系统模仿了生物大脑的神经结构和过程。我们讨论了这些架构在处理信息方面比传统冯·诺依曼模型更高效的优势,特别是在涉及模式识别、感官处理和自适应学习的任务中。通过将神经科学的概念与尖端硬件开发(例如脉冲神经网络和忆阻器)相结合,神经形态计算解决了人工智能应用中功耗和可扩展性的关键挑战。本综述重点介绍了最近的进展、正在进行的研究工作以及潜在的未来方向,说明了神经形态计算如何通过使系统不仅更快、更高效,而且还能够在动态环境中进行实时学习和决策来重新定义人工智能的格局。关键词:神经形态计算、节能人工智能、脑启发式架构、人工智能、神经网络、脉冲神经网络、低功耗计算、类脑处理、认知计算、硬件加速、机器学习、模拟计算、并行处理、自适应学习、边缘计算、生物启发系统、智能传感器、计算神经科学、突触处理、机器人应用、事件驱动计算、神经形态芯片、高效算法、弹性系统、自组织网络。
纠缠态的制备和保存是任何量子信息平台的基石。然而,量子信息科学中最强大的对手是不必要的环境影响,例如退相干和耗散。在这里,我们讨论如何控制和利用系统与环境耦合产生的耗散,为量子机器学习提供静止的纠缠态。为此,我们设计了一个耗散量子通道,即与压缩真空场库相互作用的双量子比特系统,并通过求解相应的主方程来研究通道的输出状态,特别是在小压缩范围内。我们表明,通道的时间相关输出状态是所谓的双量子比特 X 状态,它可以概括许多纠缠的双量子比特状态系列。此外,通过将一般的贝尔对角态视为系统的初始状态,我们发现这种耗散通道在稳态状态下会产生两类众所周知的纠缠混合态和类沃纳态。此外,该通道提供了一种有效的方法来确定给定的初始状态是否会导致静止纠缠态。最后,我们研究了设计的双量子比特通道在量子机器学习中的潜在应用。将双量子比特通道的非幺正变换与并行处理的神经计算相结合,建立了有意义的量子神经网络的要求。关键词:耗散双量子比特通道;量子机器学习,静止纠缠态;压缩水库