摘要 我们介绍了 Qibo,这是一款新型开源软件,充分利用硬件加速器,用于快速评估量子电路和绝热演化。人们对量子计算日益增长的兴趣和量子硬件设备的最新发展推动了开发注重性能和使用简单性的新型先进计算工具。在这项工作中,我们引入了一个新的量子模拟框架,使开发人员能够将硬件或平台实现的所有复杂方面委托给库,以便他们可以专注于手头的问题和量子算法。该软件从头开始设计,以模拟性能、代码简单性和用户友好界面为目标。它利用硬件加速,如多线程中央处理单元 (CPU)、单图形处理单元 (GPU) 和多 GPU 设备。
摘要 — 如今,全球各行各业越来越多的公司依靠人工智能方法来显著改进其产品、流程和服务。使用机器学习等技术需要现代高效的硬件和训练有素的专家。许多公司缺乏技术人才和实验室关键技术,阻碍了人工智能的发展。这正是大学如今在提供支持方面发挥新作用的地方。因此,本文介绍了确定实验室设备的方法,并表达了研究和教学之间的主要区别。在分析了不同的人工智能应用领域后,本文的目的是设想一个适用于教学和研究项目的实验室概念,该概念特别适合在大学使用。图形处理单元起着至关重要的作用。实验强调了这些硬件加速器对人工智能的重要性。
机器学习已经在图像分类[1]、视频识别[2]、自然语言处理(NLP)[3]和游戏策略[4]等众多应用中取得了最先进的性能。此外,深度神经网络(DNN)甚至可以在一些任务中超越人类水平的表现,例如ImageNet分类[5]和棋盘游戏围棋[4]。同时,神经网络的复杂度和参数大小在过去几年中飙升。尽管通用图形处理单元(GPGPU)取得了快速发展,但其能源效率仍然远低于终极“智能”——人脑,后者包含10 10个神经元和10 14个突触,但仅消耗约20瓦[6]。其中一个瓶颈来自于冯诺依曼架构将内存和处理单元分开的事实,从而引入了大量的数据移动能量以及数据访问延迟[7]。
麦肯锡估计,对数据中心不断增长的需求的70%是针对旨在支持AI工作量的专业技术的设施。尽管有些企业组织可能会选择在私有云上托管这些工作负载,但更多的人可能会依靠云服务提供商(CSP)和HyperScaler数据中心。到2030年,它预计“欧洲和美国的AI工作量中约有60%至65%将在CSP基础设施和其他高标准基础设施上托管。”它指出,其他云提供商正在进入市场,以提供围绕服务器构建的数据中心,该服务器具有图形处理单元(GPU),旨在满足AI培训需求。补充说,到2030年,欧洲数据中心的功率需求预计将增长到大约35吉瓦(GW),从今天的10 GW增长,以支持对AI工作负载的需求。
投资者已经习惯了能源公司在资本支出上投入巨资。毕竟,炼油厂、油田、海上钻井平台和液化天然气工厂都是由大型机器、发动机、管道和阀门组成的错综复杂的网络。数据中心建设成本中最大的部分是图形处理单元 (GPU) 和包含它们的超级计算机,但其他内容的数量也不容小觑。这包括但不限于:布线;钢架;冷却(液体和空气);电气设备(箱内和箱外);以及备用发电机。其次,需要总成来奠定基础和发电以支持设施。至于中期增长前景,我们要注意到,2023 年 1 月,麦肯锡公司预测,从 2023 年到 2030 年,美国数据中心的电力消耗每年将增长约 10%。
摘要 - 内存计算(IMC)是机器学习(ML)数据密集型计算加速器的最有希望的候选者之一。用于尺寸降低和分类的关键ML算法是主要成分分析(PCA),它在很大程度上依赖于经典的von Neumann架构未优化的矩阵矢量乘法(MVM)。在这里,我们提供了基于IMC的新PCA算法的实验演示,该算法基于功率迭代和在4 kbit的电阻切换随机访问存储器(RRAM)中执行的放气。威斯康星州乳腺癌数据集的分类准确性达到95.43%,接近浮点的实施。我们的模拟表明,与商业图形处理单元(GPU)相比,能源效率有250倍,因此在现代数据密集型计算中支持IMC的能源有效ML。
计算机是一种电子设备,它处理用户提供的原始数据并输出信息。数据输入计算机,经过处理后,转换为输出或最终信息。这些数据的处理是使用各种处理设备完成的,例如 CPU(中央处理器)、GPU(图形处理单元)、主板、微处理器、声卡和网卡。什么是 IPO 周期?IPO 周期的全称是输入-处理-输出周期。在 IPO 周期中,数据作为输入输入到计算机,处理设备处理数据,然后产生输出。我们可以使用芒果奶昔这个简单示例来了解这一点。在这个例子中,芒果和牛奶作为输入并在搅拌机中加工,然后获得芒果奶昔作为输出。这就完成了一个 IPO 周期。IPO 周期是允许计算机执行其工作的一系列事件。计算机处理和处理设备
缩写 解释 AI 人工智能 API 应用程序编程接口 ASIC 专用集成电路 CPU 中央处理单元 DDA 数据驱动算法 EC2 弹性计算云 FPGA 现场可编程门阵列 eduroam 教育漫游 FTP 文件传输协议 GPU 图形处理单元 HPC 高性能计算 HW 硬件 IaaS 基础设施即服务 LPDNN 低功耗深度神经网络 LSF 负载共享设施 ML 机器学习 NLP 自然语言处理 NNM 神经网络模型 NPU 神经处理单元 PaaS 平台即服务 POSIX 便携式操作系统接口 QoS 服务质量 SME 中小型企业 SoC 片上系统 SLURM 简单的 Linux 资源管理实用程序 SSD 固态硬盘 SSH 安全外壳协议 WebDAV 基于 Web 的分布式创作和版本控制 WP 工作包
作者对人工智能现状的描述至今仍贴切:“它更像是一个好奇的幼儿的智力水平,而不是一个计划统治世界的银发天才”(第 2 页)。对于那些养育幼儿的人来说,破坏的可能性并不一定令人放心。导言章节介绍了北美、欧洲和亚洲(特别是中国)在人工智能的采用和监管方面的差异。它回顾了自动驾驶汽车等有益的应用,以及预测性警务和分配社会信用评分等更不祥的应用。使人工智能可行的技术,特别是使用图形处理单元而不是中央处理单元来提高计算能力,以一种易于理解的方式进行了解释,而不会太过深入。引用作家、思想家艾萨克·阿西莫夫的“机器人三定律”来介绍人工智能的伦理问题:1