执行数字飞行数据记录器 (DFDR) 定期强制读数的组织已制定程序,以确保正确解释数据帧布局文档中的所有信息,用于定期强制读取相关记录装置,并且仅对已转换为工程单位的数据进行任何评估。此外,组织发布的任何报告都应通过文件编号和发布状态引用执行读数的数据帧布局文档。
执行数字飞行数据记录器 (DFDR) 定期强制读数的组织已制定程序,以确保正确解释数据框布局文档中的所有信息,用于相关记录装置的定期强制读数,并且仅对已转换为工程单位的数据进行任何评估。此外,组织发布的任何报告都应通过文件编号和发布状态引用执行读数的数据框布局文档。
摘要 单次读出是可扩展量子信息处理的关键部分。然而,许多具有良好特性的固态量子比特缺乏单次读出能力。一种解决方案是使用重复量子非拆除读出技术,其中量子比特与辅助量子比特相关,然后读出辅助量子比特。因此,读出保真度受到测量对量子比特的反作用的限制。传统上采用阈值法,其中仅使用总光子数来区分量子比特状态,丢弃隐藏在重复读出测量的时间轨迹中的所有反作用信息。这里我们展示通过使用机器学习(ML),人们可以利用时间轨迹数据获得更高的读出保真度。ML 能够识别反作用发生的时间,并正确读出原始状态。由于信息已经被记录(但通常被丢弃),这种保真度的提高不会消耗额外的实验时间,并且可以直接应用于涉及重复读出的测量制备和量子计量应用。
储存器计算 (RC) [1, 2] 是一种循环神经网络,近年来因其训练成本低、可通过专用电路 [3, 4] 和物理 RC [5, 6] 在硬件上实现而备受关注。RC 由储存器部分和读出部分组成,储存器部分接收时间序列输入并将其非线性转换为高维空间以表示输入的时空模式,读出部分从储存器部分拾取一些模式来分析输入并生成输出。RC 的主要优势是除读出部分之外的权重连接都是固定的。因此,与深度神经网络相比,其训练所需的数据量更少,计算成本更低。因此,RC 适用于计算资源有限且无需云计算即可执行训练的边缘 AI 系统。 RC 的读出大多由线性模型(单层感知器)实现,因此,读出的适应训练数据的能力有限。为了增强 RC 的训练能力,我们提出了一个具有多个读出的 RC 模型,该模型将一个读出的训练分散,以便每个读出可以专注于特定类型的训练数据。该方法可以看作是一种集成学习,用于增强 RC 泛化性能。简单地增加读出的数量对于边缘 AI 系统来说是低效的,因为它会消耗系统中有限的内存资源。本研究引入了一种自组织函数,它能够使用
半导体中的电子自旋是最先进的量子比特实现方式之一,也是利用工业工艺制造的可扩展量子计算机的潜在基础 [1–3]。一台有用的计算机必须纠正计算过程中不可避免地出现的错误,这需要很高的单次量子比特读出保真度 [4]。用于错误检测的全表面码要求在计算机的每个时钟周期内读出大约一半的物理量子比特 [5]。直到最近,自旋量子比特装置中的单次读出只能通过自旋到电荷的转换来实现,由附近的单电子晶体管 (SET) 或量子点接触 (QPC) 电荷传感器检测 [6–9]。然而,如果使用色散读出,硬件会更简单、更小,这利用了双量子点中单重态和三重态自旋态之间的电极化率差异 [10–13]。可以通过与量子点电极之一粘合的射频 (RF) 谐振器监测由此产生的两个量子比特状态之间的电容差异。量子点中的电荷跃迁也会发生类似的色散偏移,这样反射信号有助于调整到所需的电子占据 [14–16]。色散读出的优势在于它不需要单独的电荷传感器,但即使在自旋衰减时间较长的系统中,电容灵敏度通常也不足以进行单次量子比特读出 [17–23]。最近,已经在基于双量子点的系统中展示了色散单次读出 [24–28],但为了提高读出保真度,仍然需要更高的灵敏度。
高保真量子门的设计很困难,因为它需要优化两个相互竞争的效应,即最大化门速度和最小化量子比特子空间的泄漏。我们提出了一种深度强化学习算法,该算法使用两个代理同时解决超导传输量子比特的速度和泄漏挑战。第一个代理使用从奖励中学习到的策略构建量子比特同相控制脉冲,以补偿短门时间。在整个构建全长脉冲的中间时间步骤中获得奖励,使代理能够探索较短脉冲的前景。第二个代理确定异相脉冲以针对泄漏。这两个代理都使用来自嘈杂硬件的实时数据进行训练,从而提供适应不可预测的硬件噪声的无模型门设计。为了减少测量分类错误的影响,代理直接在探测量子比特的读出信号上进行训练。我们通过在 IBM 硬件上设计不同持续时间的 X 和 X 的平方根门来展示概念验证实验。仅经过 200 次训练迭代,我们的算法就能构建新的控制脉冲,速度比默认 IBM 门快两倍,同时在状态保真度和泄漏率方面与其性能相当。随着我们自定义控制脉冲的长度增加,它们开始超越默认门。门操作速度和保真度的改进为量子模拟、量子化学和近期及未来量子设备上的其他算法中更高的电路深度开辟了道路。
建立低误差和快速的量子比特读出检测方法对于有效的量子误差校正至关重要。在这里,我们测试神经网络以对一组单次自旋检测事件进行分类,这些事件是我们的量子比特测量的读出信号。此读出信号包含一个随机峰值,对于该峰值,包括高斯噪声的贝叶斯推理滤波器在理论上是最佳的。因此,我们将通过各种策略训练的神经网络与后一种算法进行了基准测试。使用 10 6 个实验记录的单次读出轨迹训练网络不会提高后处理性能。与贝叶斯推理滤波器相比,由合成生成的测量轨迹训练的网络在检测误差和后处理速度方面表现相似。事实证明,这种神经网络对信号偏移、长度和延迟以及信噪比的波动更具鲁棒性。值得注意的是,当我们使用由合成读出轨迹结合我们设置的测量信号噪声训练的网络时,我们发现 Rabi 振荡的可见性增加了 7%。因此,我们的贡献代表了神经网络的软件和硬件实现在可扩展自旋量子比特处理器架构中可能发挥的有益作用的一个例子。
量子计算(特别是可扩展量子计算和纠错)的一个关键要求是快速且高保真度的量子比特读出。对于基于半导体的量子比特,局部低功率信号放大的一个限制因素是电荷传感器的输出摆幅。我们展示了 GaAs 和 Si 非对称传感点 (ASD),它们专门设计用于提供比传统电荷传感点大得多的响应。我们的 ASD 设计具有与传感器点强烈分离的漏极储液器,这减轻了传统传感器中的负反馈效应。这导致输出摆幅增强 3 mV,这比我们设备传统状态下的响应高出 10 倍以上。增强的输出信号为在量子比特附近使用超低功率读出放大器铺平了道路。
为了部署基于神经网络的状态分类,我们使用了开源 PyTorch 库。21 该库面向计算机视觉和自然语言处理,包括实现深度神经网络的能力,并包含用于在图形处理单元 (GPU) 上进行数据处理的内置功能。GPU 集成使我们的管道足够快,可以执行即时数据分类,而无需将原始测量信号传输到硬盘驱动器。除其他优点外,它还允许实时监控读出分配保真度。由于神经网络的初始训练需要几分钟的时间,因此随后的网络权重重新训练需要几秒钟,并允许读出分配保真度返回到最佳值。更重要的是,本研究中使用的卷积神经网络可以设计和训练成能够适应某些实验参数漂移的方式。具体而言,我们提出了一种策略来消除由微波发电设备引起的局部相对相位漂移对读出分配保真度的影响。在我们的实验中,我们使用了电路量子电动力学平台的原始部分:耦合到读出腔的传输器。
控制量子位的状态涉及操纵其量子态以执行所需的操作。这种操纵通常涉及应用量子门序列 [3],它们类似于经典逻辑门,但作用于量子态 [4]。这些门可以确定性地改变量子位的状态,从而产生叠加和纠缠,以及计算所需的其他量子操作。测量量子位的状态涉及确定其在特定时刻的量子态。量子位耦合到位于其物理位置附近的微波谐振器。正是通过这些谐振器,可以确定或“读出”量子位的状态。确定量子位状态的一种常用技术是色散读出法 [5]。该方法利用了这样一个事实:量子位的状态对读出谐振器的某些宏观参数(例如其谐振频率)有直接影响。