量子计算的历史始于 1982 年,当时诺贝尔奖获得者理查德·费曼 (Richard Feynman) 认为某些量子力学效应无法通过经典计算机有效模拟。这引发了一场争论,关于这些效应(特别是量子力学过程中固有的并行性)是否可以通过构建量子计算机来利用。1985 年至 1993 年间,Deutsch、Bernstein-Vazirani、姚期智等人在一系列论文中提出了量子图灵机和量子门阵列等理论模型,并引入了量子计算的复杂度类和几种可由量子计算机执行的简单算法,从而推进了量子计算的理论基础。1994 年,彼得·肖尔 (Peter Shor) 发表了他的量子计算机因式分解算法,该算法在多项式时间内运行,取得了突破。他的算法依赖于所谓的量子傅里叶变换,我们将在后面介绍。量子算法的另一个例子是 Grover 搜索算法(1996),它可以在 O(√)时间内在大小为 N 的大海捞针中找到一根针
摘要。由于限制了诸如耗电耗电和可扩展性之类的限制,因此对较大的机器学习模型的培训和推断需求不断增加。光学器件是提供较低功率计算的有前途的竞争者,因为通过非吸收介质的光传播是无损操作。但是,要用光进行有用的高效计算,在光学上产生和控制非线性是一种仍然难以捉摸的必要性。多模纤维(MMF)已证明它们可以提供平均功率的微小效应,同时保持并行性和低损失。我们提出了一种光学神经网络体系结构,该体系结构通过通过波前形状控制MMF中超短脉冲的传播来执行非线性光学计算。使用替代模型,发现最佳参数集可以用电子计算机最少利用来为不同的任务编程此光学计算机。与同等执行的数字神经网络相比,模型参数数量的显着降低了97%,这导致总体上99%的数字操作减少。我们进一步证明,还可以使用竞争精确的精度执行完全的光学实现。
大规模并行 3-D 单程地震偏移 SLCS 购买了两台 Thinking Machines Corporation 连接机(最初是 CM-200,后来是 CM-5)。这些机器最初旨在用于 AI 应用,源自 20 世纪 80 年代初 Danny Hillis 在麻省理工学院 (MIT) AI 实验室的博士研究。购买它们是为了支持 SLCS 的 3-D 建模(参见“基于物理的计算机图形学”部分)。然而,最重要的成果之一是开创性的地震处理方法。大规模并行性使 3-D 单程深度偏移变得实用 [33]。在此之前,对于典型的地震勘测(磁带上输入的 1TB 数据),典型的 3D 处理序列可能需要在大型超级计算机上花费大约 30 周的时间,而仅偏移处理就需要 4 到 5 周的处理时间。新系统实现了近 10 倍的效率提升。现代地震处理集群并非完全不同:它们利用与 CM-5 数字信号处理器相当的 GPU,但性能和内存要高出几个数量级,并且集群机器之间具有高带宽、低延迟的行业标准互连。
本文重点介绍了确保由于支持部分的结构的错误几何形式而产生的长壁稳定性的困难。根据原位测量和数值计算,作者证明了与岩体的适当合作需要正确确定沿着冠层长度(比率)的液压支腿的支撑点,以及对电力屋顶支撑的盾构支撑的倾斜。缺乏这两个基本要素可能会导致屋顶下降,直接影响地下工作人员的生产结果和安全性。由构造的不正确几何形式产生的另一件事是在节点中产生的力值将冠层连接起来,将冠层连接起来,这可以做出重大贡献,以限制动力屋顶支撑的操作高度的实际范围(由于有能力的支撑与岩石支撑的相互作用)在造型支持的手术范围内提供了动力支持者的操作范围。在某些高度范围内,动力屋顶支撑的操作可能会阻碍,甚至在某些情况下阻止了动力支撑的操作员,移动盾牌并用适当的几何形状放置它们(确保在冠层和部分的地板之间进行并行性)。
摘要 — 移动机器人团队将在未来探索地外天体表面的任务中发挥关键作用。在遥远、具有挑战性和未知的环境中操作时,设置基础设施和采集科学样本是一项昂贵的任务。与当前的单机器人太空任务相比,未来的异构机器人团队将通过增强的自主性和并行性来提高效率,通过功能冗余来提高稳健性,并从各个机器人的互补能力中受益。在本文中,我们介绍了我们的异构机器人团队,该团队由飞行和驾驶机器人组成,我们计划在 2021 年作为 ARCHES 项目的一部分在意大利西西里岛埃特纳火山的月球模拟地点部署科学采样演示任务。我们描述了机器人的个体能力及其在两个任务场景中的作用。然后,我们介绍其中重要任务的组件和实验:自动任务规划、高级任务控制、光谱岩石分析、基于无线电的定位、类似月球和火星场景中的协作多机器人 6D SLAM,以及自主样本返回的演示。
摘要:数字计算机仅模拟大脑的神经元网络。例如,他们的von Neumann架构将记忆和处理器单元分开,因此导致相当大的能源消耗和环境有害的能量消散与绿色交易相矛盾。以脑为导向的(神经形态)计算,可以通过熟悉的电路网络和光子设备来重现大脑结构,这些电路网络和光子设备将这些功能集成到诸如自然大脑的能源消耗较少,效率显着增长和环保友好的功能。它们可用于建模物理,化学,生物学和神经系统中的结构和模式形成。最近的诺贝尔物理学奖(Hopfield and Hinton 2024)突出了现代机器学习在自然形成中的深层根源。模式和结构形成通过人工智能中的学习算法打开了模式识别的新应用。可以通过使用(例如光子量子芯片)与量子并行性和纠缠的量子计算的优势结合使用。他们的原则也深深地植根于自然中,最近也由物理学中的诺贝尔奖(Fack,Clauser,Zeilinger,Zeilinger 2022)强调。我们旨在集成所有这些计算范式的混合和可持续性AI。
设计,模拟和开发近红外光探测器,高能量密度柔性超级电容器的建模和制造,量子机器学习 - 应用于结构优化,保护隐私的加密应用程序,用于区块链应用,高速缓存模板在块上使用块CIPHER上的攻击,使用FLPGA上的高性能加速器上的高性能加速器上的高性能加速器上的高性能加速器,高级速度,高级效果,高级效果。高性能硬件加速器使用FPGA和ASIC技术,使用指导和数据水平并行性,高性能硬件加速器在有限元分析上,实验和机器学习辅助设计以及高容量快速充电EV热管理系统的高能设计,Skyrmion Interiative nms of Portsort of Portsor,Skyyrmion nmr of Portsor,高能元素的设计,高性能和机器学习的设计,高性能和机器的开发,用于记忆和logigation nms nmr nmr nmr nmr nmr nmr nmr nmr, LLMS医疗保健,AI驱动的机器人导航的加速器和复杂地形自动探索的路径计划。博士学位的召集人/协调员入学和联系方式:
文献 E. W. Dijkstra:协作顺序进程。收录于:F. Genys(编辑),《编程语言》,Academic Press,纽约(1968)43-112 P. B. Hansen,《Java 的不安全并行性》,ACM SIG-PLAN 通知,(4)23(1999)38-45。C. A. R. Hoare:监视器:操作系统结构概念,《ACM 通讯》,(10)17(1974),549-557。C. A. R. Hoare:通信顺序进程,《ACM 通讯》,(8)21(1978),666-677。D. Lea:Java 并发编程 - 设计原则和模式,Java 系列,Addison-Wesley,马萨诸塞州雷丁,第 2 期。Auflage (2000)。J. Magee、J. Kramer:并发 - 状态模型和 Java 程序,John Wiley & Sons,西萨塞克斯,第 2 期。Auflage (2006)。B. Sanden:应对 Java 线程,IEEE 计算机,(4) 37 (2004),20-27。B. Goetz:Java 并发实践,Addison-Wesley,新泽西州上萨德尔河 (2006)。T. Rauber, G. Rünger:Parallele Programmierung,Springer-Verlag,柏林,海德堡,2。Auflage (2007)。
单个被捕获的中性原子阵列是量子模拟、计算和计量的一个新兴平台[1-3]。通过与捕获离子类似的从头控制,可以制备和纠缠单个原子[4-6],并且越来越有望实现可扩展的量子计算[7-9]。然而,实用的量子计算需要在降低错误率和增加量子比特数方面取得实质性进展。中性原子阵列面临的一个突出挑战是开发可扩展的多功能光学元件,以实现超精细态和里德堡激发的选址操控,在受限环境中操作,并实现低散射和串扰。在离子阱实验中,长期以来在开发集成光学元件方面的努力已经提高了并行性和寻址能力[10-12]。中性原子需要类似的轨迹,并有许多独特的要求。例如,对单个中性原子的控制在很大程度上依赖于光势来捕获,无论是在晶格中还是在紧密聚焦的激光束阵列中,这被称为光镊。
本文提出了一种基于量子计算的算法来解决单图像超分辨率(SISR)问题。SISR 的一个著名经典方法依赖于成熟的逐块稀疏建模。然而,该领域的现状是深度神经网络(DNN)已表现出远超传统方法的效果。不过,量子计算有望很快在机器学习问题中变得越来越突出。因此,在本文中,我们有幸对将量子计算算法应用于 SISR 这一重要的图像增强问题进行了早期探索。在量子计算的两种范式,即通用门量子计算和绝热量子计算(AQC)中,后者已成功应用于实际的计算机视觉问题,其中量子并行性已被利用来有效地解决组合优化问题。本研究展示了如何将量子 SISR 公式化为稀疏编码优化问题,该问题使用通过 D-Wave Leap 平台访问的量子退火器进行求解。所提出的基于 AQC 的算法被证明可以实现比传统模拟更快的速度,同时保持相当的 SISR 精度 1 。