背景:类脑计算将传统计算技术与受人脑启发的计算和认知思想、原理和模型相结合,以构建智能信息系统,用于我们的日常生活。图像和语音处理、盲信号分离、创造性规划和设计、决策、自适应控制、知识获取和数据库挖掘只是类脑计算应用的一些领域。我们对大脑功能了解得越多,信息系统就越智能。本书还介绍了心智和意识建模的一个主题,以及人工智能领域的其他新理论模型和应用。人脑是一种非常节能的装置。从计算角度来说,它仅需 20 瓦的功率就能每秒执行相当于十亿亿亿亿次浮点运算(1 后面跟着 18 个零)的数学运算。相比之下,世界上最强大的超级计算机之一“橡树岭前沿” (Oak Ridge Frontier) 最近演示了百亿亿次计算能力。然而,要实现这一壮举需要数百万倍的功率,即 20 兆瓦。我和我的同事希望通过大脑来指导开发强大而节能的计算机电路设计。你看,能源效率已经成为阻碍我们制造更强大的计算机芯片的一个主要因素。虽然更小的电子元件已成倍地提高了我们设备的计算能力,但进展却正在放缓。有趣的是,我们对大脑如何运作的看法一直是计算机世界的灵感源泉。为了理解我们是如何得出这种方法的,我们需要简单回顾一下计算的历史。人脑是宇宙中最复杂的物体之一。它能够在不断变化的环境中执行高级认知任务,例如抽象、概括、预测、决策、识别和导航。大脑这种较高的认知能力得益于它的功耗非常低,只有20W。大脑能效高的原因主要有两点:一是信息交换和处理是事件驱动的;因此,尖峰能量仅在需要的时间和地点被消耗。其次,神经元和突触位于同一个神经网络中,高度互联,每个神经元平均与104个其他神经元相连。神经元/突触共位意味着数据处理(由突触兴奋和神经元放电组成)和记忆(由突触权重和神经元阈值组成)在大脑内共享同一位置。许多研究工作旨在模仿人类大脑的计算类型,以实现非凡的能源效率。这是神经形态工程的目标,其中,脉冲神经网络(SNN)是利用人工神经元和突触开发出来的。 SNN 通常采用与 Rosenblatt 和 Minsky 开创的传统感知器网络相同的全连接 (FC) 架构。然而,在 SNN 中,神经元和突触通常表现出对施加的尖峰的时间依赖性响应,例如神经元内的整合和发射以及跨突触的兴奋性突触后电流 (EPSC)。这与用于计算机视觉和语音识别的人工智能 (AI) 加速器中的传统人工神经网络 (ANN) 形成对比,其中信息是同步的并且基于信号幅度而不是时间。大多数 SNN 通常依赖于互补金属氧化物半导体 (CMOS) 技术,具有两个显著的关键优势:首先,CMOS 技术在半导体行业生态系统中广泛可用,包括设计、制造和鉴定,为基于 CMOS 的神经形态工程成为成熟主题创造了条件。其次,CMOS晶体管可以按照摩尔定律小型化,其中减小