粒子物理学中的数据分析依赖于粒子碰撞的准确模拟和检测器效应的详细模拟,以从记录的数据中提取物理知识。事件发生器以及基于Geant的模拟模拟,用于生成大量的模拟事件样本,以通过LHC实验进行分析。这些模拟的计算成本很高,其中检测器模拟和重建算法的CPU需求最大。本文介绍了如何使用一组给定模型参数获得的机器学习(ML)技术来重新使用类似的样品,以与来自不同参数或样本的样本中获得的样品。ML重新加权方法避免了需要通过事件权重将相关信息在单个样本中不相关的信息来多次模拟检测器响应。在LHC处的模拟顶级夸克对生产中,提出了用于重新加权的结果,以重新加权以建模变化和高阶计算。这种基于ML的重新加权是CMS实验的未来计算模型的重要组成部分,并将促进高光度LHC处的精确测量。
标题为“多量芯片拓扑的优化”的海报着重于设计用于多量量子处理器的可扩展和高效的ARCHITECTURES。该研究突出了超导量子位,以其可控性和作为量子计算中量子信息的基本单位而闻名。这项研究强调了参数的重要性,例如纠缠,量子误差校正和可扩展性在多Qubit芯片设计中。该团队提出了一个2D体系结构,其中包含三个量子位,并以等边三角形和一个3D体系结构排列,其中有四个量子位在四面体结构中。这些配置可以用作大型量子系统的模块化单元。未来的方向包括优化谐振器长度,能量参与率以及扩展较大多数阵列和系统的体系结构。在高能物理学中,量子系统用于量子模拟复杂的粒子相互作用。因此,易于扩展的多量芯片肯定是高能粒子碰撞的复杂计算和模拟的前进的道路,因此在不久的将来为其在新的和更令人兴奋的发现中为其在高能物理中的使用铺平了道路。
模拟在粒子和核物理学中起重要作用。它被广泛用于DECOTER设计和实验数据和理论模型之间的比较。在特定上,模拟依赖于蒙特卡洛方法,需要显着的计算资源。尤其是,这种方法不能扩展以满足高光度大型强子对撞机(HL-LHC)运行期间预期的大量数据所产生的增长需求。使用众所周知的仿真软件Geant4捕获的粒子碰撞和相互作用的详细模拟需要数十亿个CPU小时,构成了LHC实验的一半以上的计算源[1,2]。更具体地说,对热量表中粒子阵雨的详细模拟是计算最高的步骤。已经开发了利用重复使用先前计算或测量物理量的思想的模拟方法,以减少计算时间[3,4]。这些方法从专门进行到单独的实验中,尽管它们比完整的模拟更快,但它们的速度不够快或缺乏准确性。因此,粒子物理社区需要使用新的更快的模拟方法来建模实验。模拟热量计响应的可能方法之一是使用深度学习技术。,特别是最近的工作[5]提供了证据,表明可以使用生成性副本网络来效果模拟粒子阵雨。虽然实现了超过100 000倍的速度,但设置非常简单,因为输入粒子为
高能粒子碰撞测量的解释在很大程度上依赖于完整事件发生器的性能,其中包括计算硬过程和随后的部分子簇射步骤。随着量子设备的不断改进,需要专用算法来挖掘计算机可以提供的潜在量子。我们提出了用于量子门计算机的通用和可扩展算法,以促进螺旋度振幅和部分子簇射过程的计算。螺旋度振幅计算利用旋量和量子比特之间的等价性以及量子计算机的独特功能来同时计算所涉及的每个粒子的螺旋度,从而充分利用计算的量子性质。通过同时计算 2 → 2 过程的 s 和 t 通道振幅,进一步利用了相对于传统计算机的这一优势。部分子簇射算法模拟了两步离散部分子簇射的共线发射。与经典实现相比,量子算法为整个部分子簇射过程构建了一个具有所有簇射历史叠加的波函数,从而无需明确跟踪单个簇射历史。这两种算法都利用了量子计算机在整个计算过程中保持量子态的能力,代表了描述 LHC 完整碰撞事件的量子计算算法的第一步。
识别高能粒子碰撞中形成的喷流需要解决可能大量终态粒子的优化问题。在这项工作中,我们考虑使用量子计算机加速喷流聚类算法的可能性。专注于电子-正电子碰撞的情况,我们考虑一种众所周知的事件形状,称为推力,其最优值对应于一组粒子中最像喷流的分离平面,从而定义两个半球喷流。我们展示了如何将推力公式化为量子退火问题和 Grover 搜索问题。我们分析的一个关键部分是考虑将经典数据与量子算法接口的现实模型。通过顺序计算模型,我们展示了如何将众所周知的 O × N 3 Þ 经典算法加速为 O × N 2 Þ 量子算法,包括从 N 个终态粒子加载经典数据的 O × N Þ 开销。在此过程中,我们还找到了一种将经典算法加速到 O = N 2 log N Þ 的方法,该方法使用受 SISC 单喷射算法启发的排序策略,该算法没有自然的量子对应物。借助并行计算模型,我们在经典和量子情况下都实现了 O = N log N Þ 的缩放。最后,我们考虑将这些量子方法推广到与大型强子对撞机质子-质子碰撞中使用的算法更密切相关的其他喷射算法。
识别高能粒子碰撞中形成的喷流需要解决可能大量终态粒子的优化问题。在这项工作中,我们考虑使用量子计算机加速喷流聚类算法的可能性。专注于电子-正电子碰撞的情况,我们考虑一种众所周知的事件形状,称为推力,其最优值对应于一组粒子中最像喷流的分离平面,从而定义两个半球喷流。我们展示了如何将推力公式化为量子退火问题和 Grover 搜索问题。我们分析的一个关键部分是考虑将经典数据与量子算法接口的现实模型。通过顺序计算模型,我们展示了如何将众所周知的 O × N 3 Þ 经典算法加速为 O × N 2 Þ 量子算法,包括从 N 个终态粒子加载经典数据的 O × N Þ 开销。在此过程中,我们还找到了一种将经典算法加速到 O = N 2 log N Þ 的方法,该方法使用受 SISC 单喷射算法启发的排序策略,该算法没有自然的量子对应物。借助并行计算模型,我们在经典和量子情况下都实现了 O = N log N Þ 的缩放。最后,我们考虑将这些量子方法推广到与大型强子对撞机质子-质子碰撞中使用的算法更密切相关的其他喷射算法。
SRIM 模拟氢离子与稀土元素掺杂的氧化铋纳米粒子的相互作用 R. Alhathlool、MH Eisa * 物理系,科学学院,伊玛目穆罕默德伊本沙特伊斯兰大学(IMSIU),利雅得 13318,沙特阿拉伯 近年来,模拟方法受到了各个领域的广泛关注。使用 SRIM 程序将稀土钽酸镥(LuTaO 4 )掺杂的“氧化铋(Bi 2 O 3 )薄膜沉积到聚合物基底上。” SRIM 程序用于计算能量在 1.0 MeV 至 20 MeV 之间的 Bi 2 O 3 薄膜的一些物理特性。研究了 LuTaO 4 、Bi 2 O 3 、C 10 H 8 O 4 和 LuTaO 4 / Bi 2 O 3 /C 10 H 8 O 4 样品的“电子和核阻止本领”。这些研究结果表明,稀土掺杂可以改善复合材料的性能。离子束与物质的相互作用会产生各种各样的现象。在 C 10 H 8 O 4 上沉积掺杂 LuTaO 4 的 Bi 2 O 3 薄膜会导致材料“电子和核阻止本领”和范围发生变化。将已发表的数据与获得的结果进行了比较,并提供了计算参数。(2024 年 6 月 1 日收到;2024 年 8 月 1 日接受)关键词:阻止本领、氧化铋、钽酸镥、SRIM、聚合物 1. 简介 阿尔法粒子、氘核和质子对物质有显著影响。短程核力与质子和阿尔法粒子相互作用。随着能量下降,带电粒子会失去速度。在电离和激发过程中,重带电粒子都会失去能量。重带电粒子碰撞时传递的能量较少 [1]。
用于人工智能和神经形态计算的光子学 1 2 Bhavin J. Shastri a,b,g,h , Alexander N. Tait c,b,g,h , Thomas Ferreira de Lima b , Wolfram HP Pernice d , Harish 3 Bhaskaran e , C. David Wright f , Paul R. Prucnal b 4 5 a 加拿大皇后大学物理、工程物理与天文学系,加拿大安大略省金斯顿 KL7 3N6 6 b 普林斯顿大学电气工程系,美国新泽西州普林斯顿 08544 7 c 美国国家标准与技术研究所应用物理部,美国科罗拉多州博尔德 80305 8 d 德国明斯特大学物理研究所,德国明斯特 48149 9 e 牛津大学材料系,英国牛津 OX1 3PH 10 f 埃克塞特大学工程系,埃克塞特 EX4 4QF,英国 11 g 这些作者对本文做出了同等贡献。 12 h shastri@ieee.org;alexander.tait@nist.gov 13 14 由于光子集成平台上光电元件的激增,光子计算研究蓬勃发展。光子集成电路已经实现了超快的人工神经网络,为新型信息处理机器提供了框架。在这种硬件上运行的算法有可能满足医疗诊断、电信、高性能和科学计算等领域对机器学习和人工智能日益增长的需求。与此同时,神经形态电子学的发展凸显了该领域的挑战,特别是与处理器延迟相关的挑战。神经形态光子学提供亚纳秒级的延迟,为扩展人工智能领域提供了互补机会。在这里,我们回顾了集成光子神经形态系统的最新进展,讨论了当前和未来的挑战,并概述了应对这些挑战所需的科学和技术进步。 25 26 传统计算机围绕集中式处理架构(即具有中央处理器 27 和内存)组织,适合运行顺序、数字、基于过程的程序。这种架构对于分布式、大规模并行和自适应的计算模型效率低下,最明显的是用于人工智能 (AI) 中神经网络的计算模型。人工智能试图在这些对传统计算机来说具有挑战性但对人类来说很容易的任务上接近人类水平的准确度。基于神经网络的机器学习 (ML) 算法已经取得了重大成就 [ 1 ],它以分布式 32 方式处理信息并适应过去的输入,而不是由程序员明确设计。机器学习已经影响了我们生活的许多方面,其应用范围从翻译语言 [ 2 ] 到癌症诊断 [ 3 ]。神经形态工程在一定程度上试图将机器学习和人工智能算法的元素转移到能反映其大规模分布特性的硬件上。将硬件与算法相匹配可能会使信息处理速度更快、更节能。神经形态硬件也适用于机器学习之外的问题,例如机器人控制、数学规划和神经科学假设检验 [4,5]。与其他计算机架构相比,大规模分布式硬件在很大程度上依赖于集中元件(即神经元)之间的大规模并行互连。每个连接都专用的金属线是不切实际的。因此,当前最先进的神经形态电子设备使用某种形式的时分复用的共享数字通信总线,用带宽换取互连 [4]。光互连可以消除这种权衡,从而有可能加速机器学习和神经形态计算。 43 44 光已成为电信和数据中心的通信媒介,但在信息处理和计算领域尚未得到广泛应用。光电元件在通信方面表现出色,但其特性与数字门的要求却相矛盾 [6]。然而,非数字计算模型(如神经网络)更适合在光子学中实现。神经形态光子处理器的目标不应是取代传统计算机,而应实现传统计算技术目前无法实现的应用,特别是那些需要低延迟、高带宽和低能耗的应用 [7]。超快神经网络的应用示例包括:51 52 • 实现基础物理学的突破:量子比特读出分类 [ 8 ]、高能粒子碰撞 53 分类 [ 9 , 10 ]、聚变反应堆等离子体控制 [ 11 ] 54 • 非线性规划:解决非线性优化问题(机器人、自动驾驶汽车、预测 55 控制)[ 12 ] 和偏微分方程 [ 13 ] 5643 44 光已成为电信和数据中心的通信媒介,但在信息处理和计算领域尚未得到广泛应用。光电元件在通信方面表现出色,但其特性与数字门的要求却相矛盾 [6]。然而,非数字计算模型(如神经网络)更适合在光子学中实现。神经形态光子处理器的目标不应是取代传统计算机,而应实现传统计算技术目前无法实现的应用,特别是那些需要低延迟、高带宽和低能耗的应用 [7]。超快神经网络的应用示例包括:51 52 • 实现基础物理学的突破:量子比特读出分类 [ 8 ]、高能粒子碰撞 53 分类 [ 9 , 10 ]、聚变反应堆等离子体控制 [ 11 ] 54 • 非线性规划:解决非线性优化问题(机器人、自动驾驶汽车、预测 55 控制)[ 12 ] 和偏微分方程 [ 13 ] 5643 44 光已成为电信和数据中心的通信媒介,但在信息处理和计算领域尚未得到广泛应用。光电元件在通信方面表现出色,但其特性与数字门的要求却相矛盾 [6]。然而,非数字计算模型(如神经网络)更适合在光子学中实现。神经形态光子处理器的目标不应是取代传统计算机,而应实现传统计算技术目前无法实现的应用,特别是那些需要低延迟、高带宽和低能耗的应用 [7]。超快神经网络的应用示例包括:51 52 • 实现基础物理学的突破:量子比特读出分类 [ 8 ]、高能粒子碰撞 53 分类 [ 9 , 10 ]、聚变反应堆等离子体控制 [ 11 ] 54 • 非线性规划:解决非线性优化问题(机器人、自动驾驶汽车、预测 55 控制)[ 12 ] 和偏微分方程 [ 13 ] 56
在过去的几十年里,加速器被开发和优化为探索亚核粒子研究能量前沿的工具。然而,最近,加速器优化的另一个方面变得更加重要,即高度可靠的操作,以产生大量的粒子碰撞(“粒子工厂”)或光子(光源),为庞大而多样化的用户群体服务。可靠性方面对于光源尤其重要。光源拥有由数千名用户组成的庞大用户群体,这些用户组织成小型独立研究团队,每个研究团队仅使用一小部分光束时间。即使由于频繁的故障和中断导致的轻微运营效率低下也可能导致某些研究团队分配的光束时间完全损失,从而严重扰乱他们的科学计划。出于这些原因,人们越来越重视高度可靠的操作。可靠性通常定义为在预定时间段内提供给用户的光束时间的相对总量。95% 的可靠性被认为是现代光源的可容忍下限。经常报告 98% 左右的可靠性值,这并不是不寻常的成就。这意味着,对于计划的每年 5000 小时的光束时间,由于故障,用户操作可能只会损失 250 小时或更少。假设平均完全从故障中恢复需要两个小时,中断之间的时间必须平均大于 40 小时(假设每天 24 小时和每周 7 天运行)。同步辐射科学已经变得非常复杂,光束的传输不再是可靠性的充分标准。用户需要具有计划的光束能量和几乎恒定的强度、高空间稳定性和所有光束参数在操作模式改变后具有高再现性的光束,例如通过改变波荡器磁铁的场强来改变光子能量。加速器由大量有源组件组成,其中许多组件具有高功耗,必须同时运行才能使光束运行。它们通过复杂的数字控制连接和协调,精确计时通常是正常运行的条件。对于拥有 100,000 个此类组件的设施,任何组件可能仅在运行 4 × 10 6 小时后才会失效。
在过去的几十年里,加速器被开发和优化为探索亚核粒子研究能量前沿的工具。然而,最近,加速器优化的另一个方面变得更加重要,即高度可靠的操作,以产生大量的粒子碰撞(“粒子工厂”)或光子(光源),为庞大而多样化的用户群体服务。可靠性方面对于光源尤其重要。光源拥有由数千名用户组成的庞大用户群体,这些用户组织成小型独立研究团队,每个研究团队仅使用一小部分光束时间。即使由于频繁的故障和中断导致的轻微运营效率低下也可能导致某些研究团队分配的光束时间完全损失,从而严重扰乱他们的科学计划。出于这些原因,人们越来越重视高度可靠的操作。可靠性通常定义为在预定时间段内提供给用户的光束时间的相对总量。95% 的可靠性被认为是现代光源的可容忍下限。经常报告 98% 左右的可靠性值,这并不是不寻常的成就。这意味着,对于计划的每年 5000 小时的光束时间,由于故障,用户操作可能只会损失 250 小时或更少。假设从故障中完全恢复平均需要两个小时,中断之间的时间必须平均大于 40 小时(假设每天 24 小时和每周 7 天运行)。同步辐射科学已经变得非常复杂,光束的传输不再是可靠性的充分标准。用户需要具有计划的光束能量和几乎恒定的强度、高空间稳定性和所有光束参数在操作模式改变后具有高再现性的光束,例如通过改变波荡器磁铁的场强来改变光子能量。加速器由大量有源组件组成,其中许多组件具有高功耗,必须同时运行才能使光束运行。它们通过复杂的数字控制连接和协调,精确计时通常是正常运行的条件。对于拥有 100,000 个此类组件的设施,任何组件可能仅在运行 4 × 10 6 小时后才会失效。
