数据驱动技术的兴起推动了人工智能 (AI) 的快速发展。自 2010 年以来,用于训练最大 AI 模型的计算能力大约每 6 个月翻一番 [62]。私人对人工智能的总投资是十年前的 10 倍多 [44]。软件工程 (SE) 研究人员越来越多地关注并为这一进步做出贡献。在审查 2022 年大型 SE 会场 1 上的论文时,我们估计有 33% 的论文在标题或摘要 2 中提到了 AI/ML/DL 术语。相比之下,2012 年这一比例为 4%。软件工程人工智能 (AI4SE) 和人工智能软件工程 (SE4AI) 的兴起要求 AI 安全成为 SE 研究人员关注的问题。人工智能安全是指避免受到人工智能的伤害。我们赞同以下论点:这里最紧迫的考虑是极限安全,即当人工智能开始在所有领域匹敌或超越人类能力时的安全性。此类系统的集合被称为高级机器智能 (HLMI) [ 21 ],类似于通用人工智能 (AGI) 或变革性人工智能 (TAI) 等概念。HLMI 安全性方面无法取得进展可能会带来灾难性的后果,包括人类的灭绝。SE 研究人员在加剧危险或帮助降低风险方面可以发挥作用。我们将讨论原因,并提供类似于现有 SE 问题的具体 AI 问题的有用概念。我们认为,尽管 AI4SE 工作有所增加,但高度先进的 AI 的安全影响在 SE 会议上很少被讨论。我们通过引用图来探索这一假设
抽象的经典交流方案利用波浪调制是我们信息时代的基础。带有光子的量子信息技术可以在解码量子计算机的黎明中实现未来的安全数据传输。在这里,我们证明也可以将重要的波应用于安全数据传输。我们的技术允许通过在二聚体干涉仪中对相干电子的量子调制传输消息。数据是在叠加状态中编码的,该滤波器通过引入分离的物质波数据包之间的纵向移动。传输接收器是延迟线检测器,对边缘模式进行动态对比分析。我们的方法依赖于aharonov – bohm效应,但不转移阶段。证明,窃听的攻击将通过干扰量子状态并引入反应性来终止数据传输。此外,我们讨论了由于多粒子方面而引起的计划的安全限制,并提出了可以防止主动窃听的关键分布协议的实现。
在许多值得关注的科学应用中,量子算法有可能比传统算法快得多。例如量子机器学习 [1]、量子化学 [2] 以及许多其他 [3]。不幸的是,其中许多应用还无法在当前的嘈杂中型量子 (NISQ) 计算机上实现 [4],需要等到噪声源可以被抑制到阈值,使量子计算机可用于实践,甚至构建容错量子计算机 [5]。然而,许多有趣的 LGT 问题已经可以通过 NISQ 设备进行研究 [6]。特别是,如果以哈密顿量公式研究 LGT,量子算法通常不会受到符号问题的影响 [7,8]。一种重要的现成算法是变分量子特征值求解器 (VQE) [ 9 ],它是一种混合量子经典算法,利用变分原理寻找给定汉密尔顿量 H 的基态(和激发态)。VQE 的量子部分用于测量给定多量子比特状态中汉密尔顿量的期望值,即能量,而经典部分则在由参数化量子电路生成的多量子比特状态族中搜索使能量最小化的状态。本文提出的算法是一种经典优化器,旨在找到基态的良好近似值,尽可能减少能量测量的次数。这里选择的方法称为贝叶斯全局优化。它的首次应用可以追溯到 20 世纪 60 年代 [ 10 ],而它的现代实现则基于最近的研究 [ 11 ]。该方法的基础是高斯过程回归 (GPR),这是一种基于高斯过程贝叶斯推理的插值方法。它使我们能够使用有限量的 (嘈杂) 数据创建黑盒函数的预测模型。在每次优化迭代中,该模型用于确定一组可能接近全局最小点的参数。此步骤按照称为获取函数优化的过程执行。这里提出的优化能量的算法不同于 VQE 中常用的其他替代方法,因为它不仅使用能量的估计值,还使用其统计误差的值。其动机是降低每一步的量子测量次数:即使对于不精确的能量测量,只要它们的误差由于中心极限定理近似为高斯,该过程也是定义良好的。使用噪声设备模拟器将该算法的结果与其他常用的替代方案进行了比较。
太空任务规划和航天器设计紧密耦合,需要一起考虑才能获得最佳性能;然而,这个集成优化问题会导致大规模的混合整数非线性规划 (MINLP) 问题,而该问题的求解十分具有挑战性。为了应对这一挑战,本文提出了一种新的解决该 MINLP 问题的方法,即遵循多学科设计优化 (MDO) 的理念,通过增强拉格朗日协调方法迭代求解一组耦合子问题。所提出的方法利用问题的独特结构,将其分解为一组不同类型的耦合子问题:任务规划的混合整数二次规划 (MIQP) 子问题和航天器设计的一个或多个非线性规划 (NLP) 子问题。由于可以将专门的 MIQP 或 NLP 求解器应用于每个子问题,因此所提出的方法可以有效地解决原本难以解决的集成 MINLP 问题。还提出了一种自动有效的方法来寻找这种迭代方法的初始解,这样就可以在不需要用户定义的初始猜测的情况下进行优化。在演示案例研究中,使用子系统级参数化航天器设计模型优化了载人月球探测任务序列。与最先进的方法相比,即使没有并行化,所提出的公式也可以在更短的计算时间内获得更好的解决方案。对于更大的问题,所提出的解决方法也可以轻松并行化,因此有望进一步发挥优势和可扩展性。
摘要:随着智能制造的快速发展,虚拟现实技术在优化车间设施布局中的应用已成为制造业的发展趋势之一。虚拟现实技术已提出了针对研讨会设施布局优化问题(WFLOP)实时解决方案的工程要求。但是,很少有学者研究了这种解决方案。深层增强学习(DRL)在实时解决组合优化问题方面有效。WFLOP也是一个组合优化问题,使DRL可以实时解决WFLOP。因此,本文提议将DRL应用于解决双目标WFLOP。首先,本文构建了双目标WFLOP数学模型,并提出了一种新颖的双目标DRL框架。然后,DRL框架将WFLOP双目标问题分解为多个子问题,然后对每个子问题进行建模。为了减少计算工作量,采用了社区参数传输策略。为被吸引的子问题构建了链条规则,并使用改进的指针网络来解决子问题的双向目标。最后,通过将芯片生产研讨会的设施布局作为案例研究来验证该方法的有效性。
摘要 —远程纠缠分布在大规模量子网络中起着至关重要的作用,而实现纠缠分布的关键因素是能够延长纠缠传输距离的量子路由器(或中继器)。但量子路由器的性能还远未完善,其中量子路由器中有限的量子存储器极大地影响了纠缠分布的速率和效率。为了克服这一挑战,本文提出了一种在存储器受限路径上最大化纠缠分布速率(EDR)的新模型,然后将其转化为纠缠生成和交换子问题。我们提出了一种用于短距离纠缠生成的贪婪算法,以便高效利用量子存储器。对于纠缠交换子问题,我们使用纠缠图(EG)对其进行建模,其解被发现至少是 NP 完全的。在此基础上,我们提出了一种启发式算法,将原始EG划分为多个子问题,每个子问题都可以在多项式时间内使用动态规划(DP)进行求解。通过进行模拟,结果表明我们提出的方案可以实现较高的EDR,并且所开发的算法具有多项式时间上界和合理的平均运行时间复杂度。
我们提出了一种解决大规模随机机组组合 (SUC) 问题的方法,该问题具有每周调度的储能和显著的天气依赖性随机发电能力。每周储能设施主要在周末充电,在工作日放电,需要每周调度发电机组,这会导致大规模优化问题。该 SUC 问题被表述为两阶段随机模型,我们使用条件风险价值作为风险度量。使用 Benders 框架,提出的解决方法将问题分解为混合整数线性主问题和线性和连续子问题。主问题对应于整个星期的第一阶段决策,包括所有承诺(二进制)变量及其相应的约束。子问题对应于每周对发电机组的实际调度。基于列和约束生成算法在解决稳健优化问题方面的成功经验,我们通过将子问题的原始变量和约束添加到主问题中,改进了标准 Benders 分解中主问题和子问题之间的低通信量,从而提供了更好的补救函数近似值。我们的计算实验使用南卡罗来纳州合成系统实例(在 40 种场景下有 90 个发电机组)证明了所提出的分解方法的有效性。
创造性设计,用于制定流程上游要解决的问题。一般来说,制造商提出的初始问题与其他几个子问题相关,并且挑战仍然是确定要解决的最相关的问题以解决该问题。在初始分析阶段使用的工具中,问题图使得能够以图形模型的形式表示与项目相关的所有知识。然而,正如今天所开发的,后者由于要处理所有子问题而在实施时间方面受到限制。本文的目标是介绍一种新方法来快速收敛于要解决的问题并有助于流程的敏捷性。通过一个应用实例来说明这种新方法。
受在线交替方向乘法器方法 (OADM) 的启发,本文提出了一种高效的在线量子态估计 (QSE) 算法 (QSE-OADM) 用于恢复时变量子态。具体而言,在 QSE-OADM 中,密度矩阵恢复子问题和测量噪声最小化子问题被分开并分别求解,而无需迭代运行算法,这使得所提出的方法比所有先前的工作都更高效。在数值实验中,对于 4 量子比特系统,所提出的算法在 71 个样本后可以达到超过 97.57% (保真度) 的估计准确率,每次估计的平均运行时间为 (4.19±0.41)×10-4 秒,与现有的在线处理算法相比,其性能更为优越。