几何模型拟合是一个具有挑战性但又十分基础的计算机视觉问题。最近,量子优化已被证明可以增强单模型情况的稳健拟合,同时多模型拟合的问题仍未得到解决。为了应对这一挑战,本文表明后一种情况可以从量子硬件中显著受益,并提出了第一种多模型拟合 (MMF) 的量子方法。我们将 MMF 表述为一个问题,现代绝热量子计算机可以对其进行有效采样,而无需放宽目标函数。我们还提出了一种迭代和分解版本的方法,该方法支持真实世界大小的问题。实验评估在各种数据集上都显示出有希望的结果。源代码可在以下位置获得:https://github.com/FarinaMatteo/qmmf 。
在本文中,我们研究了新哥本哈根(或“认识论实用主义”)对量子力学的主要解释之间的相似之处和差异,这些解释在这里被定义为拒绝量子态的本体论性质并同时避免隐藏变量,同时保持量子形式不变。我们认为,存在一个具有共同核心的单一通用解释框架,所有这些解释都致力于这个框架,因此它们可以被视为它的不同实例,其中一些差异主要是重点和程度的问题。然而,我们也发现了更实质性的剩余差异,并对它们进行了初步分析。我们还认为,这些剩余的差异无法在量子力学本身的形式主义中得到解决,并确定了可用于打破这种解释不确定性的更普遍的哲学考虑。
i. 牛顿力学 ii. 哈密顿力学 iii. 拉格朗日力学 iv. 波动力学 (1) 简正模 (2) 波叠加 (3) 经典谐振子 v. 统计物理学 (1) 热力学定律 (2) 玻尔兹曼分布、泊松分布、二项分布、几何分布 (3) 熵及其与温度和信息的关系 (4) 配分函数 (5) 微正则系综 (6) 正则系综 vi. 相对论 (1) 狭义相对论 (2) 洛伦兹变换 (3) 长度收缩 (4) 时间膨胀 (5) 时空图 (6) 引力 b. 量子物理学
自工业革命以来,化石燃料燃烧和土地使用变化已导致二氧化碳(CO 2)的大量排放到大气中。在1850年至2020年之间,人为CO 2排放总计2420±240 GT,相当于陆地生态系统中存储的碳量(2500 GT; IPCC,2023)。当今大气中,大约有50%的发射CO 2仍然存在于辐射强迫,快速的气候变化,全球平均温度的升高以及一套相关的生态,社会和经济后果(例如,Huckelba和Van Lange,2020#15)。为了响应,量化和增强自然C隔离的努力增加了,尤其是在管理和审计可以直接进行的本地尺度上,而C隔离目标不与包括农业和城市定居在内的关键土地使用竞争(Freedman等人,2009年)。随着土地上空间的压力,对海洋环境的碳存储潜力的兴趣已加剧(例如,Nelemann和Corcoran,2009年; McLeod等,2011; MacReadie等人,2017年; Lovelock和Duarte,2019年)。 特别的重点是植被沿海的“蓝碳”生态系统,其中包括红树林,盐木和海草草地,海洋被子植物可以比许多陆地生态系统更具污染和储存碳(McLeod et al。,2011年)。Nelemann和Corcoran,2009年; McLeod等,2011; MacReadie等人,2017年; Lovelock和Duarte,2019年)。特别的重点是植被沿海的“蓝碳”生态系统,其中包括红树林,盐木和海草草地,海洋被子植物可以比许多陆地生态系统更具污染和储存碳(McLeod et al。,2011年)。这些生态系统还提供了多种生态系统服务,包括风暴浪潮保护,海平面上升,托儿所的养殖场,水的清晰度和栖息地(de los Santos等,2020),但在拥有历史悠久的范围的50%的地球上是最受威胁的生态系统,但已有遗失的范围(杜尔特(Duart),却是杜尔特(Duart)的50%。
量子计算机的探索正在如火如荼地展开。在过去十年中,量子计算的前沿领域已经从探索少量子比特设备扩展到开发可行的多量子比特处理器。超导 transmon 量子比特是当今时代的主角之一。通过和谐地结合应用工程与计算机科学和物理学的基础研究,基于 transmon 的量子处理器已经成熟到令人瞩目的水平。它们的应用包括研究物质的拓扑和非平衡状态,有人认为它们已经将我们带入了量子优势时代。然而,建造一台能够解决实际相关问题的量子计算机仍然是一个巨大的挑战。随着该领域以无拘无束的热情发展,我们是否全面了解潜伏的潜在危险的问题变得越来越紧迫。特别是,需要彻底弄清楚,在拥有 O (50) 量子比特的可行量子计算机的情况下,是否会出现与多量子比特性质相关的新的和迄今为止未考虑的障碍。例如,小型设备中量子门的高精度很难在大型处理器中获得。在硬件方面,大型量子计算机提出的独特要求已经催生了量子比特设计、控制和读出的新方法。本论文介绍了一种新颖的、不太实用的多量子比特处理器视角。具体来说,我们通过将局域化和量子混沌理论中的概念应用于多 transmon 阵列,将量子工程和多体物理学领域融合在一起。从多体的角度来看,transmon 架构是相互作用和无序非线性量子振荡器的合成系统。虽然 transmon 之间的一定程度的耦合对于执行基本门操作是必不可少的,但需要与无序(量子比特频率的站点间变化)进行微妙的平衡,以防止局部注入的信息在扩展的多体状态中分散。 Transmon 研究已经建立了不同的模式来应对效率低下(由于耦合小或无序大而导致的门速度慢)和信息丢失(耦合大或无序太小)之间的困境。我们使用当代量子处理器作为蓝图,在精确对角化研究中分析了 transmon 量子计算机的小型实例。仔细研究光谱、多体波函数和量子比特-量子比特相关性以获得实验相关的参数范围,发现一些流行的 transmon 设计方案在接近不可控混沌波动的区域运行。此外,我们在经典极限中建立了混沌的出现与量子混沌特征的出现之间的密切联系。我们的概念补充了传统的少量子比特图像,该图像通常用于优化小规模的设备配置。从我们全新的视角,可以探测到超出这个局部尺度的不稳定机制。这表明,在多体定位领域开发的技术应该成为未来 transmon 处理器工程的一个组成部分。
本文提出了一种基于量子计算的算法来解决单图像超分辨率(SISR)问题。SISR 的一个著名经典方法依赖于成熟的逐块稀疏建模。然而,该领域的现状是深度神经网络(DNN)已表现出远超传统方法的效果。不过,量子计算有望很快在机器学习问题中变得越来越突出。因此,在本文中,我们有幸对将量子计算算法应用于 SISR 这一重要的图像增强问题进行了早期探索。在量子计算的两种范式,即通用门量子计算和绝热量子计算(AQC)中,后者已成功应用于实际的计算机视觉问题,其中量子并行性已被利用来有效地解决组合优化问题。本研究展示了如何将量子 SISR 公式化为稀疏编码优化问题,该问题使用通过 D-Wave Leap 平台访问的量子退火器进行求解。所提出的基于 AQC 的算法被证明可以实现比传统模拟更快的速度,同时保持相当的 SISR 精度 1 。
量子力学效应使得构建经典上不可能实现的密码原语成为可能。例如,量子复制保护允许以量子状态对程序进行编码,这样程序可以被评估,但不能被复制。许多这样的密码原语都是双方协议,其中一方 Bob 具有完整的量子计算能力,而另一方 Alice 只需向 Bob 发送随机的 BB84 状态。在这项工作中,我们展示了如何将此类协议一般转换为 Alice 完全经典的协议,假设 Bob 无法有效解决 LWE 问题。具体而言,这意味着 (经典) Alice 和 (量子) Bob 之间的所有通信都是经典的,但他们仍然可以使用如果双方都是经典的,则不可能实现的密码原语。我们应用此转换过程来获得具有经典通信的量子密码协议,以实现不可克隆的加密、复制保护、加密数据计算和可验证的盲委托计算。我们成果的关键技术要素是经典指令并行远程 BB84 状态准备协议。这是 (经典) Alice 和 (量子多项式时间) Bob 之间的多轮协议,允许 Alice 证明 Bob 必须准备了 n 个均匀随机的 BB84 状态(直到他的空间上的基础发生变化)。虽然以前的方法只能证明一或两个量子比特状态,但我们的协议允许证明 BB84 状态的 n 倍张量积。此外,Alice 知道 Bob 准备了哪些特定的 BB84 状态,而 Bob 自己不知道。因此,该协议结束时的情况 (几乎) 等同于 Alice 向 Bob 发送 n 个随机 BB84 状态的情况。这使我们能够以通用和模块化的方式用我们的远程状态准备协议替换现有协议中准备和发送 BB84 状态的步骤。
图像超分辨率是最流行的计算机视觉问题之一,在移动设备上有许多重要的应用。虽然已经为这项任务提出了许多解决方案,但它们通常甚至没有针对常见的智能手机 AI 硬件进行优化,更不用说通常仅支持 INT8 推理的更受限的智能电视平台了。为了解决这个问题,我们推出了第一个移动 AI 挑战赛,其目标是开发一种基于端到端深度学习的图像超分辨率解决方案,该解决方案可以在移动或边缘 NPU 上展示实时性能。为此,为参与者提供了 DIV2K 数据集和训练过的量化模型,以进行高效的 3 倍图像升级。所有模型的运行时间都在 Synaptics VS680 智能家居板上进行评估,该板具有能够加速量化神经网络的专用 NPU。所提出的解决方案与所有主流移动 AI 加速器完全兼容,能够在 40-60 毫秒内重建全高清图像,同时实现高保真度结果。本文提供了挑战赛中开发的所有模型的详细描述。
我们小组率先在 LHC 的高能物理分析中使用量子机器学习 (QML)。我们已在门模型量子计算机模拟器和硬件上成功将几种 QML 分类算法应用于 ttH(与顶夸克对相关的希格斯粒子生成)和希格斯粒子到两个μ子(希格斯粒子与第二代费米子的耦合)这两项最近的 LHC 旗舰物理分析。模拟研究已使用 IBM Quantum Framework、Google Tensorflow Quantum Framework 和 Amazon Braket Framework 进行,并且我们已实现良好的分类性能,其性能类似于目前在 LHC 物理分析中使用的经典机器学习方法,例如经典 SVM、经典 BDT 和经典深度神经网络。我们还使用 IBM 超导量子计算机硬件进行了研究,其性能令人鼓舞,并且接近 IBM 量子模拟器的性能。此外,我们将研究扩展到其他 QML 领域,例如量子异常检测和量子生成对抗,并已取得一些初步成果。此外,我们还使用 NVIDIA cuQuantum 和 NERSC Perlmutter HPC 克服了大量子比特(25 个量子比特或更多)和大量事件情况下的密集计算资源挑战。
● 1943 年 - Pitts 和 McCulloch 创建了基于人脑神经网络的计算机模型 ● 20 世纪 60 年代 - 反向传播模型基础 ● 20 世纪 70 年代 - AI 寒冬:无法兑现的承诺 ● 20 世纪 80 年代 - 卷积出现,LeNet 实现数字识别 ● 1988-90 年代 - 第二次 AI 寒冬:AI 的“直接”潜力被夸大。AI = 伪科学地位 ● 2000-2010 年 - 大数据引入,第一个大数据集 (ImageNet) ● 2010-2020 年 - 计算能力,GAN 出现 ● 现在 - 深度学习热潮。AI 无处不在,影响着新商业模式的创建
