关联内存或内容可寻址内存是计算机科学和信息处理中的重要组成函数,同时它是认知和计算脑科学中的关键概念。已经提出了许多不同的神经网络架构和学习规则,以模拟大脑的关联记忆,同时研究关键组件功能,例如模式完成和竞争以及降低噪声。较少研究但同样重要的主动记忆功能是原型提取,其中训练集包括通过扭曲原型模式而生成的模式实例,而训练有素的网络的任务是回忆给定新实例的生成原型。在本文中,我们基于非模块化和模块化重复网络中使用的七个不同HEBBIAN学习规则的关联记忆功能,并在中度稀疏的二进制模式下进行赢家摄取的全部动态操作。总体而言,我们发现模块化网络具有最大的存储器为模式存储容量。流行的标准HEBB规则以最差的能力出现,而协方差学习则证明是强大但容量较低的,并且在测试的不同条件下,贝叶斯 - 赫比亚规则显示出最高的模式存储能力。
1 ETIS,UMR 8051,ENSEA,CY 塞尔吉巴黎大学,CNRS,6 Av. du Ponceau,95000 塞尔吉-蓬图瓦兹,法国。 2 庞培法布拉大学大脑与认知中心,Ram´on Trias Fargas 25-27,08005 巴塞罗那,西班牙。 3 庞贝法布拉大学信息与通信技术系,Roc Boronat 138,巴塞罗那 08018,西班牙。 4 德国汉堡-埃彭多夫大学医学中心(UKE)神经信息处理研究所、分子神经生物学中心(ZMNH),20251汉堡。 5 理论物理和建模实验室,UMR 8089,CY Cergy Paris 大学,CNRS,2 Av. Adolphe Chauvin,95032 Cergy-Pontoise,法国。 6 加泰罗尼亚高等研究院(ICREA),Passeig Lluis Companys 23,08010 巴塞罗那,西班牙。 7 IPAL,CNRS,1 Fusionopolis Way #21-01 Connexis(南塔),新加坡 138632,新加坡。
摘要 — 目前常用的图像识别卷积神经网络与人脑有一些相似之处。然而,它们之间存在许多差异,而且成熟的反向传播学习算法在生物学上并不合理。Hebbian 学习是一种可以最小化这些差异并可能为图像识别网络提供类似大脑的有利特征的算法。在这里,我们探讨了 Hebbian 学习和反向传播之间的差异,包括准确性和隐藏层数据表示。总体而言,Hebbian 网络的表现比传统的反向传播训练网络差得多。使用不完整的训练数据和失真的测试数据的实验导致性能差异较小但仍然可见。然而,事实证明,Hebbian 网络的卷积滤波器结构比反向传播更简单、更易于解释。我们假设,改进 Hebbian 网络的扩展能力可以使它们成为具有更像大脑行为的图像分类网络的强大替代方案。
根据过去的记忆进行当前计算的能力对于许多认知任务(例如故事理解)至关重要。赫布型突触可塑性被认为是大脑中长期记忆保留的基础。然而,尚不清楚这种可塑性过程如何与皮质网络中的计算相结合。在这里,我们提出了赫布记忆网络 (H-Mems),这是一种简单的神经网络模型,它围绕受赫布可塑性影响的核心异联想网络构建。我们表明,可以优化网络以利用赫布可塑性过程进行计算。H-Mems 可以一次性记住刺激对之间的关联,并在以后使用这些关联进行决策。此外,它们还可以解决合成故事的苛刻问答任务。我们的研究表明,神经网络模型能够通过简单的赫布可塑性过程用记忆丰富其计算。