摘要 - Quantum Computing(QC)是指通过量子力学(QM)继承和构建的新兴范式,具有巨大的潜力,可以解锁以前无法解决科学家无法解决复杂且计算上棘手的问题的非凡机会。近年来,QC的巨大努力和进步标志着与古典计算技术更有效地解决现实世界问题的重要里程碑。虽然近年来正在转移量子计算,但仍需要致力于将该领域从一个想法转移到工作范式。在本文中,我们进行了系统的调查,并对论文,工具,框架,平台进行分类,以促进量子计算并从应用程序和量子计算的角度进行分析。我们提出量子计算层,量子计算机平台的特征,电路模拟器,开源工具CIRQ,TensorFlow量子,ProjectQ,允许使用功能强大且直观的语法在Python中实现量子程序。之后,我们讨论当前的本质,确定开放挑战并提供未来的研究方向。我们得出的结论是,在过去的几年中,出现了许多框架,工具和平台,目前可用的设施的改进将利用量子研究社区中的研究活动。
量子计算正在迅速发展到必须认真考虑其应用设计和工程方面的地步。然而,量子软件工程仍处于起步阶段,面临着许多挑战,特别是在处理量子编程语言的多样性和嘈杂的中型量子 (NISQ) 系统方面。为了缓解这些挑战,我们提出了 QFaaS,这是一个整体的量子函数即服务框架,它利用无服务器模型、DevOps 生命周期和最先进的软件技术的优势,推动 NISQ 时代下一代应用程序开发的实用量子计算。我们的框架提供了无服务器量子系统的基本元素,以简化云环境中面向服务的量子应用程序开发,例如结合混合量子-经典计算、自动化后端选择、冷启动缓解和采用 DevOps 技术。 QFaaS 通过集成多个知名的量子软件开发工具包(Qiskit、Q#、Cirq 和 Braket)、量子模拟器和云提供商(IBM Quantum 和 Amazon Braket),提供全栈统一的量子无服务器平台。本文提出了量子函数即服务的概念、系统设计、操作工作流程、QFaaS 的实施以及关于量子无服务器计算的优势和局限性的经验教训。我们还介绍了当今量子计算机和模拟器上各种量子应用的实际用例,以展示我们的框架促进正在进行的量子软件转型的能力。
摘要 — 过去几年,随着量子计算硬件的快速发展,人们开发了多种量子软件堆栈 (QSS)。QSS 包括量子编程语言、优化编译器(将用高级语言编写的量子算法转换为量子门指令)、量子模拟器(在传统设备上模拟这些指令)以及软件控制器(将模拟信号发送到基于量子电路的非常昂贵的量子硬件)。与传统的编译器和架构模拟器相比,由于结果的概率性质、缺乏明确的硬件规格以及量子编程的复杂性,QSS 难以测试。这项工作设计了一种新颖的 QSS 差分测试方法,称为 QD IFF,具有三大创新:(1) 我们通过保留语义的源到源转换生成要测试的输入程序以探索程序变体。 (2) 我们通过分析电路深度、2 门操作、门错误率和 T1 弛豫时间等静态特性,过滤掉不值得在量子硬件上执行的量子电路,从而加快差分测试速度。(3)我们通过分布比较函数(如 Kolmogorov-Smirnov 检验和交叉熵)设计了一种可扩展的等效性检查机制。我们使用三个广泛使用的开源 QSS 评估 QD IFF:IBM 的 Qiskit、Google 的 Cirq 和 Rigetti 的 Pyquil。通过在真实硬件和量子模拟器上运行 QD IFF,我们发现了几个关键的错误,揭示了这些平台中潜在的不稳定性。QD IFF 的源变换可有效生成语义等价但不相同的电路(即 34% 的试验),其过滤机制可将差分测试速度提高 66%。
变分的特征素[1]或新兴的量子机学习[9],将计算分配给Quantum和经典部分,它们共同解决给定问题。与当今的松散集成的量子计算系统相比,在通用计算机上进行了经典的处理,我们设想,如图1所示,紧密整合的系统至少在这些部分中至少发生在量子处理器附近的专用硬件中的某些部分,变得更加可行。例如,这样的系统可能有助于处理具有低延迟和高带宽要求的实时或流数据,从重复的量子计算中进行更高级的统计收集,或者实施闭环杂交算法,其中量子计算部分地观察到量子计算,并将控制回到量子处理单元(QPU)量子(QPU)中,同时量化了量子量的量子,该量子量量子(QPU)量身定量,同时又有量子量。合适的硬件已经由其他人构建[12],尽管重点不同。在这项工作中,我们专门针对经典部分和量子零件之间的高度优化的整合,这与诸如Qiskit或CIRQ之类的流行方法[6]。我们使用对序列进行的隐式公式,其中与QASM [2]和Quil [10]相比,进行基本操作而不是显式ISA方法。这项工作的主要贡献是第3节中QHDL语言的定义,以及概念验证QHDL/VHDL共同模拟环境的实施虽然Quingo [3]等现有框架可以通过基于指令的经典计算来处理量子计算的实时集成,但我们建议利用用于门或寄存器 - 转移级别建模的硬件说明语言的精细粒度计时功能。
在这项工作中,我们开发了一种量子计算机算法,用于获取人造石墨烯 (AG) 中自由移动电子的基态和基能。此外,该算法还针对小型 AG 片进行了模拟。对于我们的模拟,我们使用 HPC 资源,因为在量子物质模拟中,随着系统尺寸的增加,传统计算资源的成本呈指数增长。我们的研究重点是石墨烯类似物:基于蜂窝晶格势的二维材料。这些晶格产生了狄拉克电子和石墨烯的主要电子特性,同时提供了更多可调平台,允许更大的电子-电子相互作用或自旋轨道耦合,并探索物质的新相。我们的算法由一个量子电路组成,该电路模拟绝热(渐进)演化,从具有非相互作用电子的 AG 系统(在我们的量子电路中很容易解决和准备)到具有任意库仑相互作用的系统(我们不知道其解决方案)。 AG 中的电子用二维费米-哈伯德哈密顿量建模,包括动能、自旋轨道和库仑项。我们首先使用 Jordan-Wigner 变换将 AG 轨道映射到一维量子比特串(或量子位,量子信息的最小单位)。晶格的每个位置都映射到一对量子比特,每个可能的自旋一个。为了准备初始的、无相互作用的状态,我们使用高斯状态准备,其缩放比例为 O(N) [1]。电路的演化部分基于之前为方格开发的策略 [2],将缩放比例缩小到 O(N x),其中 N x 是晶格的最短维度。因此,量子电路的大小和深度随着系统的大小线性增长。电路的所有部分,包括测量,都只涉及最近邻量子门。在巴塞罗那超级计算中心的 Marenostrum 4 超级计算机上,利用 Openfermion 程序包 [3] 和 Cirq [4] 和 qibo [5] 模拟器以及结构化张量网络 (TN) 和 quimb [6],对最多具有四个六边形格子的量子电路进行模拟。这项工作还利用了最近开发的 TN 分布式库 RosneT [7] 将模拟扩展到更大的格子。我们研究了不同六边形格子的量子算法的效率(即量子比特数量和电路深度的成本)及其经典模拟的效率(就计算机内存和时间而言),以及 HPC。这些模拟用于测试量子算法并优化绝热演化速度,使我们能够估算更大、更昂贵的系统的最佳电路深度。他们还探索了基于量子电路的 TN 算法模拟费米-哈伯德模型的效率,从而深入了解了这些系统的实际复杂性。
联系方式:马丁·韦切夫教授,苏黎世联邦理工学院,瑞士,silq@inf.ethz.ch 背景:最近的努力已经将量子计算机改进到可以在某些任务上超越传统计算机的程度,这种情况被称为量子霸权。量子计算机运行量子算法,通常用低级量子语言 Silq 表示。我们发布了 Silq,这是第一种旨在从量子算法的低级实现细节中抽象出来的高级量子语言。Silq 在 GitHub(https://github.com/eth-sri/silq)上公开可用,并根据免费开源 Boost 软件许可证 1.0 获得许可。作为一项关键的创新,Silq 有助于弥合经典语言和量子语言之间的概念差距。因此,Silq (i) 降低了非专业量子程序员的入门门槛,(ii) 通常有助于简洁明了地表达复杂算法,以及 (iii) 促进了 50 多年来为传统计算开发的编程和分析技术向量子编程领域的技术转移。比较。虽然传统上量子算法通常以电路的形式指定,但量子语言更方便地将量子算法表达为源代码。然而,现有的量子语言迫使程序员在较低的抽象层次上工作,仍然本质上指定将量子操作明确应用于单个量子位的量子电路。因此,用这些语言实现量子算法是繁琐且容易出错的。相比之下,Silq 支持对量子算法的描述性视图,表达了程序员的高级意图。然后,将这些算法编译成低级量子电路成为二阶关注点,可以由专门的编译器处理,就像在传统编程语言中一样。我们的实验评估表明,Silq 程序比其他量子语言中的等效程序短得多(Q# 平均缩短 46%,Quipper 缩短 38%),同时仅使用一半的量子原语。因此,Silq 程序不仅更短,而且更易于读写,因为它们需要的原语和概念更少。大部分评估都集中在 Q# 上,因为 (i) 它是使用最广泛的量子语言之一,(ii) 我们认为它比 Cirq 或 QisKit 更高级,(iii) 2018 年和 2019 年的 Q# 编码竞赛提供了大量 Q# 实现,我们可以利用它们进行比较。
处理过时的软件已成为包括开源行业在内的各个行业的紧迫问题。本期为软件工程研究人员提供了机会,有机会适应传统的程序分析技术,以应对重构和现代化挑战。生成AI的进步已经为代码生成,翻译和错误修复以及其他任务开辟了新的途径。公司渴望探索可扩展的解决方案,以进行自动测试,重构和代码生成。本教程旨在提供旧软件现代化的概述,并在AI辅助软件和生成AI的兴起中强调了其意义。它将讨论由整体遗产代码和系统引起的行业挑战,引入建筑范式以现代化的老化软件,并突出需要注意的研究和工程问题。Daniel Thul等人,Xue Han等人,Daiki Kimura等人,Oytun Ulutan等人和Shivali Agarwal等人的研究论文。展示了解决旧软件现代化的重要性。这项工作有可能推动软件工程的创新,使IBM这样的公司能够开发最先进的解决方案。IBM研究在过去一年中在AI,量子计算,半导体和基本研究方面取得了长足的进步。该组织在全球12位实验室中的3,000名研究人员推动了科学领域的界限,并设想了以前似乎不可能的计算和扩展思想中的新可能性。我们的开发路线图将使我们走向这一未来。在过去的一年中,IBM研究在革新企业内的AI能力方面发挥了关键作用。就像AI在短时间内在我们的日常生活中深深地根深蒂固一样,世界上大多数有价值的业务数据仍然锁定在无法访问的格式中,例如PDF和电子表格。在2024年,IBM Research领导了该公司主要AI发行的指控,该公司旨在满足拥有数百万最终用户的企业。亮点之一是在五月的Think上推出了TruxStlab,这是一个开源项目,通过启用新知识和技能的协作添加来简化微调LLM。IBM Research和Red Hat之间的这种合作导致了Red Hat Enterprise Linux AI的功能强大的工具。TenchERTLAB脱颖而出,因为其能够允许全球社区创建和合并更改LLM的能力,而无需从头开始重新培训整个模型。此功能使全球人们更容易找到使用LLMS解决复杂问题的创新方法。此外,IBM Research还使用TerchandLab改善了其开源花岗岩模型,该模型随后于10月发布。在IBM Research的数据和模型工厂中设计和培训了新的花岗岩8B和2B模型。这些企业级模型的执行方式类似于较大的基础模型,但对于诸如抹布,分类,摘要,实体提取和工具使用的企业至关重要的任务成本的一小部分。在12月,IBM发布了其花岗岩3.1型号,每种型号的上下文长度为128K。经过超过12万亿代币的高质量数据培训,这些模型对其数据源具有完全透明的开源。花岗岩3.1 8b指示模型显着提高了其前身的性能改进,并在其同行中占据了拥抱面孔OpenLLM排行榜基准的平均得分之一。此外,IBM发布了一个新的嵌入模型系列,这些模型提供了12种语言的多语言支持,类似于它们的生成性。作为较早的Granite 3.0发射的一部分,Granite Guardian也是开源的。这使开发人员可以通过检查用户提示和LLM的响应来实施安全护栏,以了解社交偏见,仇恨言论,毒性,亵渎,暴力等风险。我们继续使用AI模型来推动界限,尤其是与抹布技术配对时。这种组合使我们能够评估背景相关性,回答相关性和扎根。我们的最新花岗岩3.1型号是8B强大的巨头,可提供无与伦比的风险和损害检测功能。我们还升级了我们的花岗岩时间序列模型,该模型以十倍的利润优于更大的模型。这些进步对于试图根据历史数据准确预测未来事件的企业尤为重要。与传统的LLM不同,我们的花岗岩TTM(TinyTimemixers)系列提供紧凑而高性能的时间序列型号,现在可以在Beta版本的Watsonx.ai的时间表预测API和SDK的Beta版本中提供。这个新的8B代码模型还具有对代理功能的支持。我们相信,我们的开源社区在这些模型中看到了价值,迄今为止,拥抱面孔的下载量超过500万。我们的下一代代码助理,由花岗岩代码模型提供支持,为C,C ++,GO,Java和Python等语言提供通用编码帮助。除了我们的内部软件开发管道改进外,在某些情况下增强了90%的增长,Granite代码模型现在还通过Instana,Watsonx Struckestrate和Maximo等产品中的产品,业务和行业4.0自动化为新的用例,为新的用例提供了动力。我们的花岗岩型号现在可以在包括Ollama,LM Studio,AWS,Nvidia,Google Vertex,Samsung等的各种平台上使用。建立在花岗岩3系的成功基础上,我们正在努力实现一个未来,AI代理可以通过称为Bee的开源框架可以轻松地解决业务需求。这使代理商可以快速开发业务应用程序。与美国国家航空航天局合作开发的气候和天气模式,用于跟踪重大的环境问题,例如西班牙的洪水破坏,亚马逊森林砍伐以及美国城市的热岛。我们很自豪地庆祝由IBM和META共同创立的AI联盟一年,旨在推动开放和负责的AI开发。该计划已发展为23个国家 /地区的140名成员,为负责任的模型,AI硬件和安全计划组成工作组。随着对AI的需求的增长,很明显,传统的CPU和GPU正在努力与这些模型的复杂性保持同步。我们需要创建从一开始设计的新设备,以有效地处理AI需求。IBM在半导体和基础设施中揭示了2024年在半导体和基础设施研究团队中发生的一些重大突破,重点是规模。8月,IBM揭开了Spyre,这是一种新的AI ACELERATOR芯片,用于子孙后代的Z和Power Systems,灵感来自AIU原型设计和Telum Chip的工作。这一突破是在意识到AI工作流程需要极低的AI推断后的突破。spyre具有32个单独的加速器芯,并包含使用5 nm节点工艺技术生产的14英里电线连接的256亿晶体管。芯片设计为聚集在一起,为单个IBM Z系统添加了更多的加速器核。与Spyre一起,企业可以在Z上部署尖端的AI软件,同时受益于IBM Z的安全性和可靠性。IBMResearch也一直在探索更有效地服务模型的方法。去年,该团队推出了其脑启发的AIU Northpole芯片,该芯片将记忆和加工单元共同取消,拆除了Von Neumann瓶颈。今年,在Northpole的硬件研究人员与AI研究人员之间的合作中,该团队使用Northpole用于生成模型创建了一个新的研究系统。该团队的潜伏期低于1毫秒的延迟,比下一个节能的GPU快了近47倍,而能量却减少了近73倍。另一个重大突破是在共包装光学领域的。此设备可以在硅芯片边缘的高密度光纤束,从而可以通过聚合物纤维进行直接通信。IBM Research Semiconductors部门中的一个团队生产了世界上第一个成功的聚合物光学波导,将光学的带宽带到了芯片边缘。该团队证明了光通道50微米的音高的可行性,这比以前的设计尺寸减少了80%。IBM研究人员在芯片设计和制造方面取得了重大突破。 他们开发了一种使用250微米螺距的新设备,该设备可能会缩小至20-25微米,从而大大增加带宽。 这项创新可能会导致AI模型的更快培训时间,并有可能节省能源,等同于每年为5,000个美国房屋供电。 此外,IBM的团队在缩小晶体管和使用Rapidus技术的2纳米过程设备方面取得了进步。 他们通过2纳米工艺成功构建了芯片,可以进行复杂的计算而不会过多的能耗。 这些突破增强了纳米片多VT技术,以替代当前的FinFET设备。 团队还使用高NA EUV系统从事EUV光刻,这使设计高性能逻辑设备可以扩展纳米片时代,并使未来垂直堆叠的晶体管超过1 nm节点。 IBM已经证明了降至21 nm螺距的线条的金属化,从而使铜达马斯斯互连的集成能够继续进行。 这些创新不仅是研究的努力;它们将变成可以大规模部署以解决实际业务问题的产品。IBM研究人员在芯片设计和制造方面取得了重大突破。他们开发了一种使用250微米螺距的新设备,该设备可能会缩小至20-25微米,从而大大增加带宽。这项创新可能会导致AI模型的更快培训时间,并有可能节省能源,等同于每年为5,000个美国房屋供电。此外,IBM的团队在缩小晶体管和使用Rapidus技术的2纳米过程设备方面取得了进步。他们通过2纳米工艺成功构建了芯片,可以进行复杂的计算而不会过多的能耗。这些突破增强了纳米片多VT技术,以替代当前的FinFET设备。团队还使用高NA EUV系统从事EUV光刻,这使设计高性能逻辑设备可以扩展纳米片时代,并使未来垂直堆叠的晶体管超过1 nm节点。IBM已经证明了降至21 nm螺距的线条的金属化,从而使铜达马斯斯互连的集成能够继续进行。这些创新不仅是研究的努力;它们将变成可以大规模部署以解决实际业务问题的产品。例如,IBM Spyre已经可用,将是下一代IBM Power 11的组成部分。AIU Northpole和共包装的光学设备在加拿大Bromont的IBM设施进行了测试和硬化。IBM量子通过整合量子和经典系统来解决复杂问题,从而加速其对混合计算的愿景。今年,该公司在推进其可扩展故障量量子计算机的路线图方面取得了长足的进步。在量子开发人员会议上,IBM展示了其进度,包括从高达5,000台门的运营中获得了苍鹭量子电路的精确结果。揭幕了一种新的,改进的苍鹭芯片,拥有156吨和出色的性能,错误率下降到8x10^-4。此外,IBM在创新方面取得了重大进步,包括使用Crossbill和L-COUPLER的M耦合器与火烈鸟的开发。这些突破使量子计算机更接近可扩展性和容忍性。此外,Qiskit V1.0是作为稳定版本发布的,巩固了其作为世界上最出色的量子软件开发套件的位置。此版本提供了改进的稳定性,并为Qiskit的60万开发人员提供了更长的支持周期。此外,还编译了一个名为Benchpress的基准集合,以准确演示Qiskit的性能。在针对其他量子软件(包括TKET,BQSKIT和CIRQ)的基准测试测试中,Qiskit在性能方面出现了明确的赢家,完成了比任何其他量子SDK的测试。IBM对创新的承诺可以追溯到80年前的成立。平均而言,在移动电路时,Qiskit的速度比TKET少54%。我们的软件工具集<div> Qiskit已经超越了性能SDK,以支持运行实用程序尺度量子工作负载的整个过程。这包括编写代码,后处理结果以及两者之间的所有内容。该工具集现在涵盖执行大规模工作负载所需的开源SDK和软件中间件。Qiskit Transpiler服务,更新的Qiskit Runtime Service,QISKIT AI Code Assistan Service,Qiskit Serverless和Qiskit功能等新功能使用户能够在更高的抽象级别访问高性能的量子硬件和软件。Qiskit功能,特别是将量子计算带给更广泛的受众群体的潜力。这是一项编程服务,允许用户在导入功能目录并传递其API令牌后,在IBM量子处理器和IBM Cloud上运行工作负载。该服务应用错误抑制和缓解措施,然后返回结果。通过结合软件和硬件突破,我们制作了以量子为中心的超级计算的第一个真实演示。我们与Riken合作发表了一篇论文,将此范式定义为超级计算,可以优化跨量子计算机和高级经典计算簇的工作。在我们的实验中,我们使用了多达6,400个fugaku超级计算机的节点,以帮助IBM Heron QPU模拟分子氮和铁硫簇。我们有信心,如果我们与古典HPC社区合作,我们可以在未来两年内实现量子优势。由于以量子为中心的超级计算出现,我们设想在一些最难的计算任务中协助经典计算机(反之亦然)的量子计算机。当前的加密方法取决于计算机将大数字分为主要因素的困难,随着数字的增长,这变得越来越具有挑战性。计算机科学家认为,研究人员已经证明,一台复杂的量子计算机可以通过应用Shor的算法在几个小时内破解RSA-2048加密,这对于计算机对于能够将大于2048位的数字的计算值至关重要。为了解决这一问题,IBM Research开发了三种新的数字签名算法-ML-KEM,ML-DSA和SLH-DSA,它们已被NIST接受竞争。为了确保平稳过渡到后量子后时代,IBM量子安全团队创建了一个用于网络弹性的路线图。这涉及了解组织的加密格局,确定需要更换的领域以及分析依赖性。企业可以使用诸如IBM量子安全探险家之类的工具来发现加密文物,生成密码材料清单(CBOM)并分析相关漏洞。IBM还为几项国家级计划做出了贡献,包括日本的Rapidus项目,该计划旨在使用芯片和高级包装以及AI驱动的Fab Automation开发2 NM芯片。此外,IBM与几个国家合作,以帮助他们确保其计算未来。在瑞士,IBM与Phoenix Technologies合作,在其位置安装了端到端的云AI超级计算机。该系统能够从数十个gpus扩展到数十个GPU,并具有IBM突破,例如基于IBM存储量表的灵活的基于RDMA的网络和高性能存储系统。使用OpenShift容器平台和OpenShift AI构建了云本地AI平台,可根据需要提供对WATSONX.AI的访问。IBM设置为全球主权AI Cloud Solutions的动力,从Kvant AI开始,该解决方案旨在提供特定于行业的AI应用程序。该公司还将通过投资其Bromont设施来加强与加拿大和魁北克政府的合作伙伴关系,从而巩固北美芯片供应链的未来。此外,IBM半导体研究导致了纳米片技术和2 nm节点等突破,并且新的NSTC EUV加速器将位于Albany Nanotech综合体。IBM还通过开设其在欧洲的第一个量子数据中心并与Riken合作安装IBM量子系统两个,从而在全球扩展量子计算。该公司还将IBM系统带到韩国和法国,同时与西班牙,沙特阿拉伯和肯尼亚等政府合作开发特定语言的AI模型并监视造林工作。托马斯·沃森(Thomas Watson)认为,从制表机,尺度和打孔时钟的早期,投资研究的价值。IBM继续发现新的想法和设计工具,以满足不断变化的行业需求,从而巩固了其作为计算领域的领导者的地位。 这个开创性的研究机构致力于推动现代科学的界限并取得渐进的进步。IBM继续发现新的想法和设计工具,以满足不断变化的行业需求,从而巩固了其作为计算领域的领导者的地位。这个开创性的研究机构致力于推动现代科学的界限并取得渐进的进步。IBM研究:八十年前的科学突破的遗产,哥伦比亚大学教授华莱士·埃克特(Wallace Eckert)领导了沃森科学计算实验室IBM Research成为前身的建立。在1956年,IBM建立了一个专门的研究部门,到本世纪末,他们需要更多的空间来探索迅速发展的计算世界。我们通过在我们的思想实验室中构建创新的解决方案来启动我们的旅程,以塑造计算的未来。在这里,研究人员与来自不同背景的专业人员合作,以解决看似不可能的项目。我们的内部工具(如花岗岩模型)被用来增强我们的产品,而代理框架为Qiskit供电代理。最近的合作导致了加速的发现,回应了托马斯·沃森(Thomas Watson)80年前的开拓精神。我们应对未来80年的挑战时,下一章的创新就在未来。