振幅放大是 Grover 搜索算法的一个关键组成部分,它使用迭代方法系统地增加一个或多个目标状态的概率。我们提出了新的策略来增强放大过程,即将状态划分为类别,在放大之前或放大期间,这些类别的概率会以不同的水平增加。划分过程基于二项分布。如果事先知道搜索目标状态所属的类别,则与标准版本相比,振幅放大算法中的迭代次数可以大大减少。在更可能的情况下,即事先不知道相关类别,则可以在运行时配置它们的选择,或者可以采用随机方法,类似于二分搜索等经典算法。具体而言,我们将此方法应用于我们之前介绍的量子字典模式,其中键和值在两个单独的寄存器中编码,并且值编码方法与键寄存器中使用的叠加类型无关。我们认为这种结构是搜索的自然设置。我们通过在真实量子硬件 Honeywell System Model HØ 捕获离子量子计算机中获得的实验结果证实了新方法的有效性。
准确的轨道测定对于Cislunar空间监测至关重要。在低地球轨道(LEO)中用于OD的传统技术可能无法在Cislunar空间中有效地工作,因此需要新的方法来估计这种环境中机动目标的状态。本文提出了一种利用物理知情神经网络(PINN)的新方法,这是一种独特的神经网络类型,旨在解决由参数微分方程控制的前进和反问题。OD问题被视为一个动态问题,其目的是从观察数据开始解决管理微分方程。该系统能够使用仅被动角度观察来估计目标状态,而无需任何初始猜测或集成。如果考虑操纵目标,包括运动方程中未知的动态组件,则可以在观察范围内的任何时候估算目标状态和操纵者本身。该方法均可在Space4 Center提供的CISLUNAR对象和合成生成的数据的两个实际角度观察结果上进行测试。本文得出的结论是,所提出的方法有可能提高Cislunar空间中的OD准确性,并且可能是传统方法的有希望的替代方法。
在整个目标分析过程中,分析师确定目标情报缺口并制定 ICR 以获取所需数据。必须尽早以 PIR、IR 和特定 IR 的形式明确陈述 ICR。分析人员和规划人员必须超越传统图片(即图像)的思维,并使用 SIGINT、HUMINT(即叛逃者、难民、战俘、旅行者、机组人员汇报和特种部队)等情报来源,以及其他可以提供目标状态迹象的传感器数据。熟悉收集系统功能至关重要。请求者应认识到各种情报来源的优势和局限性,并了解如何最好地利用它们。
对于许多顺序决策问题,通常需要计划才能找到解决方案。但是,对于诸如机器人技术中遇到的域,换句函数(也称为世界模型)通常是未知的。虽然基于模型的强化学习方法学习了可以用于计划的世界模型,但此类方法受到在许多时间段应用模型应用时会累积的错误限制,并且无法重新识别计划的状态。为了解决这些问题,我们介绍了DeepCubeai,这是一种算法,该算法学习了一个世界模型,该模型代表了在离散的潜在空间中代表状态,使用增强学习学习学习一种启发式功能,该功能使用该学识渊博的模型将概括性和目标状态概括,并将学习的模型结合在一起,并将启发式功能与启发式搜索相结合,以解决问题。由于潜在空间是离散的,因此我们可以通过舍入来防止小错误的积累,我们可以通过简单地比较两个二进制向量来重新识别状态。在我们对Rubik Cube,Sokoban,Icelider和DigitJump的像素表示的实验中,我们发现DeepCubeai能够将模型应用于数千个步骤,而不会出现任何错误。此外,DeepCubeai在所有领域中解决了99%以上的测试实例,跨目标状态概括了,并且大大优于贪婪的政策,而贪婪的政策没有与学识渊博的世界模式计划。
使用量子特征进行参数估计的量子计量学最近引起了人们的注意,因为它可以胜过任何基于资源的经典测量方案[1-8]。尽管可以实现令人印象深刻的精确提高,但只有在优化协议的各个步骤时才能达到最终性能[4,9,10]。标准过程通常考虑最初以最佳初始状态制备的系统的自由演变。但是,在许多示例中,这种方法还不够,并且必须通过外部控制修改系统动力学,以实现给定实验约束的最高精度。控制设计通常由最佳控制理论(OCT)执行,该理论证明了其在许多量子应用中的有效性[6,11-14]。到目前为止,已经提出了不同的解决方案,以定义最佳控制问题。它们在固定的最后时间示意性地差异以最大化(或最小化)。除其他外,我们可以提到量子渔民信息(QFI)[10,15–30],选择性控制方案[31-39]和指纹识别方法[40-43]的最大化。QFI基于与量子系统结合的cram'er-rao的概括[9,44,45]。对于纯状态,QFI与特定可观察的特定可观察的方差成正比,该方差与哈密顿量的部分衍生物相对于参数进行估计。通过最大化此数量,我们确保参数的小扰动会引起对系统动力学的显着修改,因此,这使我们能够减少测量过程中造成的误差。对于QFI,该信息在参数空间中是本地的,并且在控制问题的定义中没有明确的目标量子状态。本质上非本地的选择性控制过程并非如此。可以将它们视为以不同参数值为特征的系统的不同副本的同时状态对状态控制协议[33,34,36,46-46-50]。选择性控制已广泛用于核磁共振中[51-55]。在此框架中,目标是找到一个控制系统的控件,以达到系统的每个副本,以达到(可能尽可能快)的目标状态,并专门选择目标状态以最大程度地减少测量误差。指纹方法更加详尽,并结合了来自QFI和选择性协议的想法[40-43]。没有特定的目标状态,但目标是最大化一个或几个可观察到的时间演变之间的距离。在这种情况下,考虑了整个动态,而不仅仅是最终系统配置[43]。除了给定优点的最大化外,还可以包括其他约束来分析这些问题,例如控制时间或能量的最小化[56-59]。可以通过这些方法独立地获得不同的控制策略,例如,用于自旋系统的参数估计。自然出现的一个问题是在哪些条件下这些控制方案是等效的,更一般而言,不同技术之间的优点,相似性和差异。本文旨在朝这个方向迈出一步。据我们所知,只有指纹方法已短暂地连接到[60,61]中的Fisher信息,但是QFI和选择性方案之间的关系仍未得到探索。为了简化分析,我们专注于链接
Tweety 是一只长着翅膀和尾巴的黄色小鸟。Tweety 吃了一条肥虫子。约翰要坐公交车去波士顿。Q3。框架如何用于知识表示?举例说明。Q4。一只 3 英尺高的猴子在一个房间里,房间里有几根香蕉悬挂在 8 英尺高的天花板上。房间里有两个可堆叠、可移动和可攀爬的 3 英尺高的板条箱。给出获取香蕉的初始状态、目标状态、后继函数和成本函数。Q5。写一篇关于不同知识表示技术的简短笔记?
欺骗在信息不完全的战略互动中起着至关重要的作用。受安全应用的启发,我们研究了一类具有单边不完全信息的双人回合制确定性博弈,其中玩家 1(P1)的目的是阻止玩家 2(P2)达到一组目标状态。除了行动之外,P1 还可以放置两种欺骗资源:“陷阱”和“假目标”,以误导 P2 有关博弈的转变动态和收益。陷阱通过使陷阱状态看起来正常来“隐藏真实”,而假目标通过将非目标状态宣传为目标来“揭示虚构”。我们感兴趣的是联合合成利用 P2 错误信息的 P1 的最佳诱饵放置和欺骗性防御策略。我们在图模型上引入了一个新颖的超博弈和两个解决方案概念:隐秘欺骗必胜和隐秘欺骗几乎必胜。这些确定了 P1 可以在有限步内或以 1 的概率阻止 P2 到达目标的状态,并且 P2 不会意识到自己被欺骗了。因此,确定最佳诱饵位置相当于最大化 P1 的欺骗获胜区域的大小。考虑到探索所有诱饵分配的组合复杂性,我们利用组合合成概念来表明诱饵放置的目标函数是单调的、非减的,并且在某些情况下是亚模或超模的。这导致了一个诱饵放置的贪婪算法,当目标函数是亚模或超模时实现 (1 − 1 / e ) 近似。提出的超博弈模型和解决方案概念有助于理解各种安全应用中的最佳欺骗资源分配和欺骗策略。