Hopfield 用一种相当于物理学中自旋系统能量的属性来描述网络的整体状态;能量是使用一个公式计算的,该公式使用了节点的所有值以及它们之间连接的所有强度。Hopfield 网络的编程方法是将图像输入到节点,节点的值分别为黑色 (0) 或白色 (1)。然后使用能量公式调整网络的连接,以便保存的图像获得较低的能量。当另一个模式输入网络时,有一个规则是逐个检查节点,并检查如果该节点的值发生变化,网络是否具有较低的能量。如果发现如果黑色像素变为白色,能量就会降低,它会改变颜色。这个过程一直持续到无法找到任何进一步的改进。当达到这一点时,网络通常会重现它所训练的原始图像。
英国加拿大的杰弗里·欣顿(Geoffrey Hinton),被称为“ AI的教父”,美国物理学家约翰·霍普菲尔德(John Hopfield)获得了“发现和发明的奖项,这些奖项可以通过人工神经网络为机器学习,”诺贝尔陪审团说。
Hopfield 用一种相当于物理学中自旋系统能量的属性来描述网络的整体状态;能量是使用一个公式计算的,该公式使用了节点的所有值以及它们之间连接的所有强度。Hopfield 网络的编程方法是将图像输入到节点,节点的值分别为黑色 (0) 或白色 (1)。然后使用能量公式调整网络的连接,以便保存的图像获得较低的能量。当另一个模式输入网络时,有一个规则是逐个检查节点,并检查如果该节点的值发生变化,网络是否具有较低的能量。如果发现如果黑色像素变为白色,能量就会降低,它会改变颜色。这个过程一直持续到无法找到任何进一步的改进。当达到这一点时,网络通常会重现它所训练的原始图像。
(1) Shigenobu Kobayashi 和 Takao Terano (编):《知识系统手册》,Ohmsha (1990)。(2) J. Hopfield 和 P. Tank:《优化问题中的决策神经计算》,《生物控制论》,第 81 卷,第 141-152 页 (1985)。(3) S. Kirkpatricks 等人:《通过模拟退火实现优化》,《科学》,第 220 卷,第 671-680 页 (1983)。
约翰·霍普菲尔德发明了一种可以保存和重新创建图案的网络。网络的功能可以比作景观的形成。当图案被保存时,景观中就会形成山谷。当一张扭曲的图像被输入到网络中时,网络会追踪到与输入图像最相似的保存图案。
人工智能是现代科学最受追捧的前沿领域之一。约翰·麦卡锡(1927-2011)是一位美国计算机科学家,他于 1955 年首次提出了“人工智能”一词。人们在电子设备中模拟人脑系统思维及其转化,研究仍在各个层面展开。生物学概念:“智能”被转化为电子信号和波,并被机器转化为工作,称为机器学习。它是一门跨学科的科学,涉及电子、物理、化学、数学、工程、计算机科学以及生物科学。未来有各种可能性,机器学习和人工智能将取代现有的机器,开启一个具有记忆、判断和执行能力的机器新时代。两位人工智能先驱——约翰·霍普菲尔德和杰弗里·辛顿——因帮助创建机器学习的基石而获得诺贝尔物理学奖,机器学习正在彻底改变我们的工作和生活方式,但也给人类带来了新的威胁。电子领域的人工神经网络已经开发出来,互连的计算机节点模拟大脑中的神经网络。这里提到了一些关于人工智能的著名名言:1. 辛顿,被誉为人工智能教父,霍普菲尔德是普林斯顿大学的美国人。诺贝尔委员会的一名成员引用了霍普菲尔德 1982 年的工作,为辛顿的工作奠定了基础。2. 辛顿说:“人工智能最终将对文明产生‘巨大影响’,提高生产力和医疗保健水平。”“它将与工业革命相媲美”,“我们没有体验过拥有比我们更聪明的东西会是什么感觉。在很多方面,这都将是件好事”,“但我们也必须担心许多可能的不良后果,尤其是这些事情失控的威胁。”
分别来自统计力学和贝叶斯概率的方法对于思考某事是否发生的可能性来说是截然不同的。统计力学是理论物理学的一个领域,在神经网络中主要用作寓言;作为在一个领域创建的模型,并(非常有用地)应用于另一个领域。这几乎就像用物理学来讲故事。这些方法可以成功使用的想法是如此极端,以至于这些方法可以在神经网络和深度学习中找到新家几乎令人震惊。统计力学的概念是受限玻尔兹曼机 (RBM) 学习方法的核心。受限玻尔兹曼机使用的底层方法与随机梯度下降实现(例如反向传播)所使用的方法非常不同。这意味着 RBM 可以具有多层架构并学会区分更复杂的模式,从而克服我们之前讨论过的简单多层感知器 (MLP) 的局限性。统计力学处理的是只能通过其能量状态来区分的小单元的发生概率。相比之下,贝叶斯概率提供了一种截然不同的思考事情发生概率的方式。这两种面向概率的方法共同为高级机器学习方法奠定了基础。既然我们已经确定了统计力学和贝叶斯方法的重要性,我们将把注意力(针对本章和紧接着的章节)限制在统计力学及其与神经网络的基础关系上。稍后,当我们讨论更高级的主题时,我们将全面讨论统计力学和贝叶斯方法的融合。统计力学在神经网络中的作用首次为人所知是在 1982 年 John Hopfield 发表他的研究成果时 [1]。他的研究成果借鉴了 Little 及其同事在 1974 年 [2] 提出的观点。本章介绍了统计力学中的一些关键概念;足以理解一些经典论文的主题:Hopfield 的原创成果(介绍了后来被称为 Hopfield 网络的内容)以及由 Geoffery Hinton 及其同事开发的玻尔兹曼机的一些关键成果。
使用循环神经网络从神经测量重建计算动力学 Daniel Durstewitz 1,2,3,*、Georgia Koppe 1,4、Max Ingo Thurm 1 1 海德堡大学医学院中央精神卫生研究所理论神经科学系 2 海德堡大学跨学科科学计算中心 3 海德堡大学物理与天文学院 4 海德堡大学医学院中央精神卫生研究所精神病学和心理治疗诊所* 通讯作者:daniel.durstewitz@zi-mannheim.de 关键词:动力系统理论、机器学习、循环神经网络、吸引子、混沌、多个单元记录、神经生理学、神经成像 摘要 神经科学中的机械和计算模型通常采用微分或时间递归方程组的形式。此类系统的时空行为是动力系统理论 (DST) 的主题。 DST 提供了一个强大的数学工具箱,用于描述和分析从分子到行为的任何级别的神经生物学过程,几十年来一直是计算神经科学的支柱。最近,循环神经网络 (RNN) 成为一种流行的机器学习工具,用于研究神经或行为观察背后的非线性动力学。通过在与动物受试者相同的行为任务上训练 RNN 并剖析其内部工作原理,可以产生关于行为的神经计算基础的见解和假设。或者,可以直接在手头的生理和行为时间序列上训练 RNN。理想情况下,一旦训练好的 RNN 将能够生成具有与观察到的相同的时间和几何属性的数据。这称为动态系统重建,这是机器学习和非线性动力学中一个新兴的领域。通过这种更强大的方法,就其动态和计算属性而言,训练过的 RNN 成为实验探测系统的替代品。然后可以系统地分析、探测和模拟训练过的系统。在这里,我们将回顾这个令人兴奋且迅速发展的领域,包括机器学习的最新趋势,这些趋势在神经科学中可能还不太为人所知。我们还将讨论基于 RNN 的动态系统重建的重要验证测试、注意事项和要求。概念和应用将通过神经科学中的各种示例进行说明。简介理论神经科学的一个长期原则是,神经系统中的计算可以用底层的非线性系统动力学来描述和理解(Amit & Brunel,1997;Brody & Hopfield,2003;Brunel,2000;Durstewitz,2003;Durstewitz 等,1999、2000、2021;Hodgkin & Huxley,1952;Hopfield,1982;Izhikevich,2007;Machens 等,2005;Miller,2016;Rinzel & Ermentrout,1998;Wang,1999,2002;Wilson,1999;Wilson & Cowan,1972)。相关思想可以追溯到 40 年代 McCulloch & Pitts (1943)、Alan Turing (1948) 和 Norbert Wiener (1948) 的工作,并在 80 年代早期通过 John Hopfield (1982) 的开创性工作获得了发展势头,该工作将记忆模式嵌入为简单循环神经网络中的固定点吸引子。Hopfield 网络的美妙之处在于它们免费提供了生物认知系统的许多特性,例如自动模式完成、通过部分线索进行内容可寻址记忆检索或对部分病变和噪声的鲁棒性。通过动态系统理论 (DST) 的视角来观察神经计算特别有力,因为一方面,许多(如果不是大多数)物理和生物过程都是自然形式化的