摘要:数字机器智能从最初的数字计算形式发展到人工智能,其核心是执行人类可以执行的认知任务,例如预测推理或复杂计算。最先进的技术包括可以通过一系列正式的数学规则或一系列事件驱动的操作轻松描述的任务,例如建模、模拟、业务工作流、与设备的交互等,以及易于“直观”完成但难以正式描述或作为一系列事件驱动的操作的任务,例如识别口语或面孔。虽然这些任务令人印象深刻,但它们在将常识推理应用于新情况、填补信息空白或理解和应用不成文的规则或规范方面存在不足。人类智能使用联想记忆和事件驱动的交易历史来快速理解他们所观察到的内容,以便在他们仍在观察时对其进行处理。除了这种认知能力之外,所有生物系统都表现出自创生和自我调节。在本文中,我们展示了如何增强机器智能,使其包括联想记忆和事件驱动的交易历史,从而创建一类新的基于知识的助手来增强人类智能。数字助理使用从大型语言模型中获得的全局知识来弥合相互交互的各个参与者之间的知识差距。我们使用信息的一般理论和基于模式的知识表示来创建交互中涉及的各种交易的记忆和历史记录。
人工神经网络 (ANN) 是受生物神经网络结构和功能启发而产生的计算模型。它们可以成为解释认知过程的一种有趣方法 [Hasson 等人,2020 年]。认知建模中使用的一组值得注意的 ANN 是双向联想记忆 (BAM),它基于神经动力学视角运行。BAM 使用反馈权重来学习刺激对,并且具有抗噪性,能够在仅提供部分信息的情况下回忆起输入 [Acevedo-Mosqueda 等人,2013 年]。BAM 通常使用双极编码,其中输入向量由 -1 和 1 的值组成,因为它比二进制编码提高了学习性能,其中输入向量由 0 和 1 组成 [Kosko,2021 年]。然而,在使用 ANN 进行认知建模时,它们必须建立在基于大脑中发生的过程的原则之上,同时避免仅仅提高计算效率的方法 [O'Reilly,1998]。二进制编码被认为在生物学上更合理,因为它更接近于脉冲的存在和不存在。此外,它提供了 0 的吸收特性,这可以实现更多的认知过程,如真正的稀疏性、门控、过滤等。因此,本文
引入了DNA和核小体的模型,目的是研究从单个碱基水平一直到高阶染色质结构的染色体。该模型被称为广泛可编辑的染色质模型(Wechrom),重现了双螺旋的复杂力学,包括其弯曲持久性长度和扭曲持久长度以及前者的温度依赖性。Wechrom Hamiltonian由链连接性,空间相互作用和相关记忆项组成,这些记忆项代表了所有剩余的相互作用,从而导致B-DNA的结构,动力学和机械性特征。讨论了该模型的几种应用,以证明其适用性。Wechrom用于研究圆形DNA在正和阴性超串联的主体中的行为。我们表明,它概括了底膜的形成和放松机械应力的结构缺陷。模型自发地表现出相对于正或负超串联的不对称行为,类似于实验中先前观察到的不对称行为。此外,我们表明,辅助记忆哈密顿量也能够再现核小体脱离部分DNA的自由能。Wechrom旨在模拟10nm纤维的连续可变机械性能,并且凭借其简单性,可以将其扩展到足以研究基因结构组合的分子系统。Wechrom在OpenMM仿真工具包中实现,可以免费使用。
生物系统中的 EAM,更具体地说是大脑中的 EAM,是通过终身学习 (LLL) 创建的,其中相关项目在时间和空间中的结构(例如集群)不断创建和修改。另一方面,LLL 依赖于基于共性和相似性将新项目添加到现有结构中,因此 LLL 和 EAM 是同一过程的双重原则。这种二元性涉及大脑中不同层次的分子和神经功能,例如:神经发生;神经调节;情景重放;元可塑性;多感觉整合。1 大脑中的 LLL 是基于神经网络的人工系统中 LLL 的终极灵感,更具体地说,是基于大脑启发的脉冲神经网络 (SNN) 架构,其中时空联结结构不断形成和修改以形成不断发展的时空联想记忆 (ESTAM)。2–5
记忆是人类认知的标志之一,当人类使用神经反馈自愿调节神经群体活动时,记忆就会被改变。然而,目前尚不清楚神经反馈是否会影响记忆的整合,以及在这种神经扰动之后记忆是会得到促进还是受损。在这项研究中,参与者记住了物体,同时我们根据他们在腹侧视觉流中的大脑活动模式为他们提供了抽象的神经反馈。这种神经反馈在记忆物体的同时在大脑中创建了一个隐含的面部或房屋背景。结果表明,参与者完全由于神经反馈操纵而在每个记忆的物体与其隐含背景之间建立了关联。我们的研究结果揭示了记忆形成如何受到神经反馈合成记忆标签的影响,并加深了我们对助记符处理的理解。
赫布学习是大脑最成熟的原理之一,它催生了神经组装的理论概念。在此基础上,许多有趣的大脑理论应运而生。Palm 的工作通过二元联想记忆实现了这一概念,该模型不仅具有广泛的认知解释能力,而且还能做出神经科学预测。然而,联想记忆只能与对数稀疏表示一起工作,这使得将该模型应用于真实数据极其困难。我们提出了一个生物学上合理的网络,将图像编码为适合联想记忆的代码。它被组织成专门研究局部接受场的神经元组,并通过竞争方案进行学习。在对两个视觉数据集进行自关联和异关联实验后,我们可以得出结论,我们的网络不仅超越了稀疏编码基线,而且接近使用最佳随机代码实现的性能。
摘要:联想记忆一直是大规模循环新皮质网络执行计算的主要候选对象。实现联想记忆的吸引子网络为许多认知现象提供了机械解释。然而,吸引子记忆模型通常使用正交或随机模式进行训练,以避免记忆之间的干扰,这使得它们不适用于自然发生的复杂相关刺激,如图像。我们通过将循环吸引子网络与使用无监督赫布-贝叶斯学习规则学习分布式表示的前馈网络相结合来解决这个问题。由此产生的网络模型结合了许多已知的生物学特性:无监督学习、赫布可塑性、稀疏分布式激活、稀疏连接、柱状和层状皮质结构等。我们评估了前馈和循环网络组件在 MNIST 手写数字数据集上的复杂模式识别任务中的协同效应。我们证明了循环吸引子组件在前馈驱动的内部(隐藏)表示上进行训练时实现了联想记忆。联想记忆还被证明可以从训练数据中提取原型,并使表示对严重失真的输入具有鲁棒性。我们认为,从机器学习的角度来看,所提出的前馈和循环计算集成的几个方面特别有吸引力。
具有非线性驱动和耗散项的量子振荡器因其能够稳定猫态以进行通用量子计算而受到广泛关注。最近,超导电路已被用于实现存储在相干态中的这种长寿命量子比特。我们给出了这些振荡器的概括,它们不限于相干态。关键因素在于驱动和耗散中存在不同的非线性,而不仅仅是二次非线性。通过对不同非线性的渐近动力学特征进行广泛分析,我们确定了在相干和非相干叠加中存储和检索量子态(例如压缩态)的条件。我们探索了它们在量子计算中的应用,其中压缩延长了在两个对称压缩态叠加中编码的量子比特的记忆存储寿命,以及在量子联想记忆中的应用,迄今为止,量子联想记忆仅限于存储经典模式。
具有非线性驱动和耗散项的量子振荡器因其能够稳定猫态以进行通用量子计算而受到广泛关注。最近,超导电路已被用于实现存储在相干态中的这种长寿命量子比特。我们给出了这些振荡器的概括,它们不限于相干态。关键因素在于驱动和耗散中存在不同的非线性,而不仅仅是二次非线性。通过对不同非线性的渐近动力学特征进行广泛分析,我们确定了在相干和非相干叠加中存储和检索量子态(例如压缩态)的条件。我们探索了它们在量子计算中的应用,其中压缩延长了在两个对称压缩态叠加中编码的量子比特的记忆存储寿命,以及在量子联想记忆中的应用,迄今为止,量子联想记忆仅限于存储经典模式。
在神经科学中,经典 Hopfield 网络是标准的生物学上可行的长期记忆模型,它依靠赫布可塑性进行存储,依靠吸引子动力学进行回忆。相比之下,机器学习中的记忆增强神经网络通常使用键值机制来存储和读取记忆,只需一步。与传统变体相比,这种增强网络实现了令人印象深刻的记忆壮举,但它们的生物学相关性尚不清楚。我们提出了一种基本的键值记忆实现,它使用生物学上可行的三因子可塑性规则的组合来存储输入。当网络参数进行元学习时,相同的规则就会恢复。我们的网络在自动联想记忆任务上的表现与经典 Hopfield 网络相当,并且可以自然扩展到持续回忆、异联想记忆和序列学习。我们的结果表明,作为生物长期记忆的模型,经典 Hopfield 网络是一种引人注目的替代方案。