摩尔定律说明了经典计算机技术的快速发展。事实上,这并不是一条定律,而是一个经验观察,即集成电路中晶体管的数量每 1.5 年就会翻一番。这一观察结果归功于英特尔创始人之一戈登·摩尔 (Gordon E. Moore),他在 1965 年发表在《电子学杂志》上的一篇文章中首次阐述了他观察到的趋势 [27]。尽管摩尔最初的提法与广泛报道的不同,但它对处理器制造商的开发速度产生了重大影响。根据最初的提法,成本最低的组件的复杂度大约每年翻一番,而且这种发展速度在未来不太可能发生重大变化。对于芯片设计师来说,这一观察结果成为了一个需要满足的目标和对未来的自我实现预测,即对未来许多年生产周期的完整预测。
会话描述:随着半导体技术接近缩小范围的局限性,对传统冯·诺伊曼建筑的替代方案的需求也会增长。神经形态计算,受人脑的结构和功能的启发,是一种有希望的解决方案,尤其是用于开发智能系统,例如视觉处理器,听觉系统和机器人运动。设备技术,电路设计和计算建模的最新突破使联合研究人员来自不同的领域,包括电子,计算机科学,神经科学,材料科学和设备制造。这些相互交流的旨在为人工智能(AI)应用(AI)应用和神经形态硬件创建更有效的电子系统,而与传统CMOS相比,它更准确地复制了生物神经网络。将备忘录集成到设计工具包中有望将进步推向摩尔定律,从而开发可以感知的智能,多功能系统,
量子计算的进展——回顾 *R. Madhusudhana 1、KC Navyashree 1、L. Krishnamurthy 1、R. Gopalkrishne Urs 2 1 印度国家工程学院(NIE)机械工程系纳米技术中心,Manandavadi Road,迈索尔,印度 1* madhu[at]nie.ac.in 2 印度国家工程学院(NIE)物理系,Manandavadi Road,迈索尔,印度 2 rgk[at]nie.ac.in 摘要:量子计算是一个快速发展的研究领域。本文深入介绍了量子计算及其迄今为止的进展。量子技术结合了量子力学、计算机科学和经典信息论。一般来说,首先会识别信息。然后,这些信息将传播以引起量子计算效应。它在物理学中占有基础地位 [3]。然而,信息的数学处理,尤其是信息处理,是相当新的,并且对于获得无错误的信息是必不可少的。在经典计算中,摩尔定律被用来处理信息。但摩尔定律很快就会不再适用,因为我们开始使用另一种计算类型,即量子计算。到目前为止,计算机已经变得越来越小,功能越来越强大。然而,尽管取得了这些进步,但仍有许多问题无法被强大的计算机解决,而且不能保证我们能够阐明这些问题,但可以通过量子处理来解决[9]。关键词:密码学、纠缠、叠加、量子计算 1.简介 量子计算是一种新的计算技术,它将使用两个量子力学特性,即叠加和纠缠[1][2][6]。叠加意味着量子系统能够同时存在于多个状态,而纠缠是两个粒子在一起的某种量子意义,无论它们之间的距离如何[1][9]。经典计算技术仅使用两种状态,即 0 或 1。但量子计算使用 0、1 以及 0 和 1 状态的叠加。这些被称为量子比特(量子位),类似于经典比特。使用量子计算的计算机称为量子计算机 [2]。量子计算机解决特定的计算问题,如整数分解。它比旧计算机计算和解决问题的速度更快 [2]。量子计算机研究属于量子信息科学领域。量子计算的先驱是 Paul Benioff 和 Yuri Manin。在这里,计算是通过在量子逻辑门的帮助下控制量子比特来完成的。这些逻辑门类似于传统的逻辑门 [10]。
摘要:随着机器学习和人工智能的持续快速发展,以及摩尔定律的日益临近,架构设计的新途径和新想法正在被创造和利用。其中一种途径是尽可能靠近用户(即在边缘)加速人工智能,以减少延迟并提高性能。因此,研究人员开发了低功耗人工智能加速器,专门用于加速边缘设备上的机器学习和人工智能。在本文中,我们概述了 2019 年至 2022 年之间的低功耗人工智能加速器。本文根据加速目标和功耗对低功耗人工智能加速器进行了定义。在本次调查中,我们介绍并讨论了 79 种低功耗人工智能加速器。所审查的加速器基于五个标准进行讨论:(i)功率、性能和功率效率,(ii)加速目标,(iii)算术精度,(iv)神经形态加速器,以及(v)行业与学术加速器。 CNN 和 DNN 是最受欢迎的加速器目标,而 Transformers 和 SNN 正在崛起。
晶体管尺寸越大,相同芯片面积内可以容纳的晶体管越多,更小尺寸、更高速度、更低能耗是驱动超大规模集成电路技术一代又一代快速发展的不变趋势。然而,如今摩尔定律正在逼近制造工艺的物理极限,目前晶体管的最小栅极宽度已经小于10纳米,如果尺寸继续缩小,制造工艺将变得异常困难。首先,栅极尺寸过窄的晶体管对电流的控制能力会急剧下降,从而产生“漏电流” 。4 – 6此外,为了在芯片上集成更多的晶体管,二氧化硅绝缘层必须越来越薄,而这也会产生漏电流,最终造成额外的功耗,以及信号衰减和电路错误。第二,在5纳米及以下节点制造芯片时,晶体管的电子将受到量子隧穿效应,不再沿着既定的路径移动,5,7-9导致晶体管的特性失控,制造难度和成本增加。
背景:计算能力的提升在我们现代生活中占据了很大一部分比重的计算机还要强大:比 25 年前房间大小的计算机还要强大的手机、全球近一半人口的互联网接入、以及由强大的超级计算机推动的药物发现。社会已经开始依赖性能随时间呈指数级增长的计算机。计算机性能的大部分提升来自于数十年来计算机部件的小型化,诺贝尔物理学奖获得者理查德费曼在 1959 年向美国物理学会发表的演讲“底部有足够的空间”中预见了这一趋势。1975 年,英特尔创始人戈登摩尔预测了这种小型化趋势的规律性,现在称为摩尔定律,直到最近,计算机芯片上的晶体管数量每两年就会翻一番。不幸的是,半导体小型化作为提高计算机性能的可行方法已经失去动力——“底部”没有太多空间。如果增长
20 世纪 80 年代,随着先进的微处理器实现了更强大的计算能力,人工智能的发展迎来了复苏。根据“摩尔定律”的概念,计算机芯片的容量继续呈指数级增长,大约每两年翻一番。10 这些更强大的半导体使计算机科学家能够访问更大的数据库,从而实现更复杂的算法。一系列被称为“专家系统”的新程序被开发出来,这些程序首次能够复制人类的决策。11 专家系统包含有关特定主题的大量知识和事实。这些程序可以解决狭义的问题,否则这些问题需要人类主题专家来解决。例如,国防部使用专家系统开发维护软件,使用户能够输入诊断数据并收到有关故障根本原因的报告以及推荐的解决方案。12 虽然专家系统在定制应用程序方面表现出色,但它们无法参与超出其预编程知识的问题解决。13
摘要 作为扩大摩尔定律扩展的关键方法,3D 集成技术使半导体行业实现了集成电路的小尺寸、低成本、多样化、模块化和灵活组装。因此,将这些技术应用于处于起步阶段且通常需要大规模集成才能实用的量子计算设备至关重要。在这篇评论中,我们重点关注四种流行的量子比特 (qubit) 候选者 (捕获离子、超导电路、硅自旋和光子),它们由不同的物理系统编码,但本质上都与先进的 CMOS 制造工艺兼容。我们介绍了每种量子比特类型的特定可扩展性瓶颈,并介绍了当前使用 3D 集成技术的解决方案。我们根据层次结构评估这些技术并将其分为三大类。还提供了有关热管理的简要讨论。我们相信这篇评论有助于就互连、集成和封装对正在快速发展的量子计算领域的贡献提供一些有用的见解。
分子自旋电子学的目标是利用单个或少数分子作为自旋电子学应用的功能构建块,直接依赖于分子特性或分子与无机电极之间界面的特性。由于设备不断向小型化发展,现有硅基电子产品的摩尔定律即将终结,这些目标显得尤为重要。尽管人们对分子作为自旋传输介质的兴趣最初源于其固有的弱自旋弛豫机制导致的长自旋寿命,[5] 但人们很快意识到分子可能提供传统自旋电子学所不具备的额外选择。这是因为与无机自旋电子学中使用的材料不同,分子的结构、化学和电子特性可以以几乎无限多种方式以原子精度进行调整。当分子与无机电极接触时(这是实现单个或少数分子设备的先决条件),它们的界面相互作用可以产生标准无机界面无法实现的功能。 [3,4]
传统观点认为,技术进步是由加速回报定律(“LOAR”)驱动的。1 LOAR 应用于信息技术,即摩尔定律,预测技术进步将呈指数趋势,最终达到技术奇点。2 这一观念已发展成为一种名为技术乌托邦主义的思想流派。3 技术乌托邦主义指的是数字生活是人类宇宙进化中自然而理想的下一步,这肯定是件好事。4 由于技术乌托邦主义,大多数技术文献本质上都是乐观的,无论是在结果方面还是在进步速度方面。例如,牛津大学教授尼克·博斯特罗姆 (Nick Bostrom) 认为,人工智能技术的指数级增长将很快导致超级智能机器的出现。5 此外,谷歌的雷·库兹韦尔 (Ray Kurzweil) 认为,技术奇点(即利用计算技术对人类大脑进行逆向工程的时间)仅需十年即可实现。6 围绕区块链技术的乐观情绪也不例外。