摘要BrainScales的第一代,也称为Brainscales-1,是一种用于模拟尖峰神经元网络的神经形态系统。按照“物理建模”原理,其VLSI电路旨在模拟生物学示例的动力学:模拟回路与其电子组件的内在特性产生的时间常数实现神经元和突触。与生物学状态相比,它连续运行,动力学通常匹配10 000。尽管不可避免的模拟可变性和组件故障,但容忍故障设计使其能够实现晶圆尺度的集成。在本文中,我们介绍了Brainscales-1晶圆模块的调试过程,提供了对系统物理组件的简短描述,说明了其组装过程中采取的步骤以及对其进行操作所采取的措施。此外,我们反思了系统的开发过程以及所学到的经验教训,通过模拟晶圆尺度同步释放链来证明其功能,这是迄今为止最大的尖峰网络仿真,迄今为止,最大的尖峰网络模仿和单个突触。
基于冯·诺依曼架构和经典神经网络的现代人工智能系统与大脑相比具有许多基本局限性。本文讨论了这些局限性及其缓解方法。接下来,本文概述了当前可用的神经形态人工智能项目,这些项目通过将一些大脑特征引入计算系统的功能和组织中来克服这些局限性(TrueNorth、Loihi、Tianjic、SpiNNaker、BrainScaleS、NeuronFlow、DYNAP、Akida)。此外,本文还介绍了根据神经形态人工智能系统所使用的大脑特征(神经网络、并行性和异步性、信息传输的脉冲性质、局部学习、稀疏性、模拟和内存计算)对其进行分类的原理。除了基于现有硅微电子技术的神经形态设备中使用的新架构方法外,本文还讨论了使用新忆阻器元件基的前景。本文还给出了在神经形态应用中使用忆阻器的最新进展示例。
基于冯·诺依曼架构和经典神经网络的现代人工智能 (AI) 系统与哺乳动物的大脑相比具有许多基本局限性。在本文中,我们将讨论这些局限性及其缓解方法。接下来,我们将概述目前可用的神经形态 AI 项目,这些项目通过将一些大脑特征引入计算系统的功能和组织来克服这些局限性(TrueNorth、Loihi、Tianjic、SpiNNaker、BrainScaleS、NeuronFlow、DYNAP、Akida、Mythic)。此外,我们还介绍了根据神经形态 AI 系统所使用的大脑特征对其进行分类的原则:联结主义、并行性、异步性、信息传输的脉冲性质、设备上学习、本地学习、稀疏性、模拟和内存计算。除了回顾基于现有硅微电子技术的神经形态设备所使用的新架构方法外,我们还讨论了使用新忆阻器元件基座的前景。我们还给出了在神经形态应用中使用忆阻器的最新进展示例。
简介:旗舰后记 评论科学是有风险的。批评有时会引起强烈的反对反应。人们工作非常努力,领导者不喜欢看到他们的战略受到攻击。批评者通常不会为他们提出的问题提供简单的解决方案,即使这些问题是正确的,也大多没有答案。当赌注很高,大量资金等待交付时,火车(或轮船)一旦启动,就不应该脱轨(或沉没)。它必须按计划继续前进,保持最初的冲力。就管理效力而言,项目领导不回答批评的一个典型原因是“把猴子放在批评者的肩膀上”(Oncken 和 Wass,1974;Cover,1999)。积极主动可能是摆脱猴子并开启建设性对话的更好方法。那么问题就变成了:为了更好的科学,可以做些什么呢?这通常是我在神经认识论演讲结束时被问到的问题,或者在对全球神经科学计划进行前瞻性评论后收到的评论中被问到的问题(Frégnac and Laurent,2014;Frégnac,2017,2021)。我撰写有关旗舰和全球神经科学的动机来自我长期参与跨学科联盟,首先是担任近 15 年的欧洲未来和新兴技术 (FET) 项目(类似生命的感知、Bio-I3、Open-FET:Sensemaker、FACETS、Brain-I-Nets、BrainScaleS)的生物学协调员,然后作为该项目加速阶段的积极参与者,
简介:旗舰事后评论对科学的评论有风险。批评有时会提出强烈的反应反应。人们如此努力工作,领导者不喜欢看到自己的策略在抨击中。批评家通常不能轻松解决他们提出的问题,即使问题是正确的,这些问题在很大程度上仍未得到解答。当赌注高且大量资金等待交付时,火车(或船舶)一旦发射,就不应该脱轨(也不是沉没)。它必须按计划继续保持最初的推力。在管理功效方面,该项目的领导层不回答批评的典型原因是“让猴子保持批评家的肩膀”(Oncken and Wass,1974; Cover,1999)。积极主动可能是摆脱猴子并打开建筑对话的更好方法。问题就变成了:为了一门更好的科学,可以做什么?这通常是我在神经性论文谈判结束时被问到的问题,或者在对全球神经科学计划的详细评论后收到的评论(Frégnac和Laurent,2014年;Frégnac,2017年,2017年,2021年)。My motivation to write about flagships and global neuro- science comes from my long involvement in interdisciplinary consortia, first as the biology coordinator for almost 15 years in successive European Future and Emerging Technology (FET) projects (Life-Like Perception, Bio-I3, Open-FET: Sensemaker, FACETS, Brain-I-Nets, BrainScaleS), then as an active participant in the ramp-up phase of the
尽管深度学习最近取得了成功,但在解释复杂的高维数据流(如视觉、听觉和体感刺激)方面,哺乳动物的大脑仍然无与伦比。然而,大脑在处理不可靠、高维且通常不完整的数据的同时,功耗只有几瓦的底层计算原理仍然鲜为人知。在这项工作中,我们研究了特定功能如何从哺乳动物皮层中观察到的简单结构中产生,以及如何在非冯·诺依曼设备(如“神经形态硬件”)中利用这些功能。首先,我们表明,一组确定性的脉冲神经网络可以通过简单的局部学习规则来塑造,以执行基于采样的贝叶斯推理。这表明了一种编码方案,其中脉冲(或“动作电位”)表示受感官输入约束的后验分布样本,而无需任何随机性来源。其次,我们引入了一个自上而下的框架,其中使用最小作用原理和基于梯度的最小化来推导神经元和突触动力学。综合起来,神经突触动力学近似于实时误差反向传播,可映射到皮质网络的机械组件,其动力学可再次在所提出的框架内描述。所提出的模型缩小了定义明确的功能算法与其生物物理实现之间的差距,提高了我们对大脑可能采用的计算原理的理解。此外,此类模型可以自然地转化为模仿大脑高度并行的神经结构的硬件,有望实现强大的学习和推理算法的加速和节能,我们为物理模型系统“BrainScaleS-1”展示了这一点。