量子算法最近成为有希望解决粒子物理领域复杂问题的有前途的途径[1]。在高能量壁炉中发生的事件,例如CERN的大型强子对撞机(LHC),通常通过根据其子过程的特征能量量表进行分解来分析它们。在这方面,量子算法在粒子物理学中的最新应用已经考虑了碰撞的特定方面。例如,已经探索了量子算法以进行轨道重建[2、3、4]和喷气聚类[5、6、7、8],包括分析在培养基中[9,10,11]中的JET形成。的应用还包括Parton阵雨[12、13、14],量子机学习[15、16、17]的模拟以及Parton密度的确定[18]。在大多数理论方面,量子算法已被用于评估螺旋性振幅[19]和基本过程的颜色代数[20],并已应用于选择Multiloop Feynman Dia-Grams的因果构型[21,22,22,23,23,24]。这也关注量子积分器[25,26,27],包括它们在循环Feynman积分中的应用[28]。
摘要:在本文中,我们探讨了生成机器学习模型作为计算昂贵的Monte Carlo(MC)模拟的替代品的潜力,该模拟(MC)模拟了大型强子撞机(LHC)实验通常使用的。我们的目标是开发一个能够有效地模拟特定粒子可观察物的检测器响应的生成模型,重点关注同一事件中不同颗粒的检测器响应之间的相关性并适应不对称的检测器响应。我们基于掩盖自回归流链的条件归一化流量模型(CNF),有效地结合了条件变量和高维密度分布。我们使用在LHC上对偶发事件的Higgs玻色子腐烂样品进行了模拟样本评估CNF模型的性能。我们使用涂抹技术创建重建级别的可观察力。我们表明,有条件地归一化的流可以准确地对复杂的检测器响应及其相关性进行建模。此方法可以潜在地减少与生成大量模拟事件相关的计算负担,同时确保生成的事件满足数据分析的要求。我们在https://github.com/allixu/normalizing_flow_flow_for_detector_response
预计高亮度大型强子对撞机 (HL-LHC) 实验的跟踪探测器所需的计算复杂度和数据规模将空前增加。虽然目前使用的基于卡尔曼滤波器的算法在同时发生的碰撞数量、占用率和可扩展性(比二次方差)的模糊性方面已达到极限,但人们正在探索各种用于粒子轨迹重建的机器学习方法。HEP.TrkX 之前使用 TrackML 数据集证明,图形神经网络通过将事件处理为连接轨迹测量的图形,可以通过将组合背景减少到可管理的数量并扩展到计算上合理的大小来提供有希望的解决方案。在之前的工作中,我们展示了量子计算对图形神经网络进行粒子轨迹重建的首次尝试。我们旨在利用量子计算的能力同时评估大量状态,从而有效地搜索大型参数空间。作为本文的下一步,我们提出了一种改进的模型,采用迭代方法来克服初始过度简化的树张量网络 (TTN) 模型的低精度收敛问题。
摘要将升级欧洲核研究组织(CERN)的大型强生对撞机(LHC),以进一步提高粒子碰撞(发光度)的瞬时速率,并成为高光度LHC(HL-LHC)。这种发光度的增加将显着增加与检测器相互作用的颗粒数量。颗粒与检测器的相互作用称为“命中”。HL-LHC将产生更多的检测器命中,这将通过使用重建算法来确定这些命中的粒子轨迹构成组合挑战。这项工作探讨了将新颖的图神经网络模型转换的可能性,该模型可以最佳地考虑到跟踪探测器数据的稀疏性质及其复杂的几何形状,并将其带入混合量子古典图神经网络,该图从使用各种量子层中受益。我们表明,这种混合模型可以执行类似于经典方法。此外,我们还探索具有不同表达能力和纠缠能力的参数化量子电路(PQC),并比较其训练性能以量化预期收益。这些结果可用于构建未来的路线图,以进一步开发基于电路的混合量子古典图神经网络。
摘要:将在ATLAS实验中安装高粒度定时检测器(HGTD),以减轻大型强子撞机(LHC)在CERN的高光度(HL)期间的堆积效应。低增益雪崩探测器(LGADS)将提供颗粒到HGTD的到达时间的高精度测量值,从而改善粒子范围的分配。为了应对高辐射环境,通过在增益层中添加碳来优化LGAD,从而降低了照射后的受体去除率。来自不同供应商的几种富含碳的LGAD传感器的性能,并以1.5和2的高流量进行照射。5×10 15 N EQ /cm 2,在2021年和2022年的横梁测试活动中已在Cern SPS和Desy中进行了测量。本文介绍了与示波器记录的数据获得的结果,该示波器与光束望远镜同步,该示波器在几μm的分辨率内提供了粒子位置信息。提出了收集的电荷,时间分辨率和效率测量值。此外,还研究了效率均匀性,这是入射粒子在传感器垫中的位置的函数。
摘要:提出了ATLAS协作对Charginos和Nutralos的Electroweak生产进行的搜索的约束摘要。考虑了八个单独的地图集搜索的结果,每种质子 - 质子蛋白数据的140 fb - 1在其第二次数据获取运行期间在大型强子撞机上收集的√s= 13 tev的质子 - 质子数据。结果是在19参数现象学最小的超对称标准模型的背景下解释的,其中假定R-平衡保守性,并假定最轻的超对称粒子是最轻的中性粒子。约束。结果是根据超对称粒子质量的约束表示的,并与简化模型的限制进行了比较。还显示了Atlas搜索对参数的影响,例如暗物质遗物密度以及由直接暗物质检测实验靶向的自旋依赖性和自旋依赖性散射横截面。Higgs Boson和Z Boson的“漏斗区”,低质量的中性诺不会使深色物质遗物丰度过于饱和,几乎完全被所考虑的约束所排除在外。还提出了具有光charginos和中性诺斯的非排斥超对称模型的示例光谱。
摘要。与目前的 LHC 实验综合体相比,CERN 的高亮度大型强子对撞机 (HL-LHC) 的复杂性和数据量将显著增加。因此,由于同时发生的碰撞次数和随之而来的探测器占用率增加,重建粒子轨迹的任务将变得更加复杂。为了识别粒子路径,HEP.TrkX 项目及其后继项目 Exa.TrkX 正在探索图神经网络等机器学习技术。两者都显示出有希望的结果并降低了问题的组合性质。我们团队先前的结果证明了应用量子图神经网络根据探测器的命中重建粒子轨迹的成功尝试。通过在嵌入空间内以有意义的方式表示训练数据,可以获得更高的整体精度。这已通过应用经典 MLP 包含在 Exa.TrkX 项目中。因此,属于不同轨迹的命中对被推开,而属于相同轨迹的命中对则保持靠近。我们探索了包含相对较少量子比特的变分量子电路在嵌入任务中适用于 NISQ 设备的适用性,并展示了初步结果。
在数十年的理论上,对于解锁宇宙秘密所需的异国情调的新探测器系统,最终使Photon计数CT成为可能,例如Higg的Boson(aka aka aka the“上帝粒子”)在CERN的大型Handron撞机上。要捕获和辨别对撞机中的大量光子,需要探测器的“刷新”速率为几纳秒,这也可以应用于每秒数百万X射线通过CT机器中的患者。在这样做以来,自1972年CT发明以来,CT的数字转换过程的类似物被消除了,因此消除了创建图像所需的X射线数量的数量至少少50%。此外,每个X射线的能量都是可注册的,而不是成千上万X射线不同能量的团块的平均值,因此所产生的图像是在下面的组织中更真实,更有用的表示 - 这种所谓的光谱能力可改善疾病过程的可视化和诊断。此外,光谱能力意味着通常需要在体内进行两到三个运行的扫描,以查看组织对注射的染料的反应,现在只需要一次运行 - 这是三分之二的辐射较少(加上可能进一步的50%或更少的辐射辐射)。
摘要。我们研究了重子化学势 µ B 对平衡和非平衡状态下夸克胶子等离子体 (QGP) 特性的影响。平衡状态下 QGP 的描述基于动态准粒子模型 (DQPM) 中的有效传播子和耦合,该模型与格点量子色动力学 (QCD) 中解禁温度 T c 以上的部分子系统的状态方程相匹配。我们计算了(T,µ B)平面内的传输系数,例如剪切粘度η 与体积粘度 ζ 与熵密度 s 之比,即 η/s 和 ζ/s,并将其与 µ B = 0 时的其他模型结果进行比较。QGP 的非平衡研究是在部分子-强子-弦动力学 (PHSD) 传输方法中进行的,该方法扩展到部分子领域,通过明确计算在实际温度 T 和重子化学势 µ B 下评估的每个单独时空单元中部分子散射的总和微分部分子散射截面(基于 DQPM 传播子和耦合)。在相对论重离子碰撞的不同可观测量中研究了它们的 µ B 依赖性的轨迹,重点关注 7.7 GeV ≤ √ s NN ≤ 200 GeV 能量范围内的定向和椭圆流系数 v 1 、v 2。
贡献者的风格多种多样。20 世纪 60 年代中期,对称性游戏发展非常迅速;人们进行推测并获得了回报。那些日子似乎已经过去了,那些试图进行革命的人的贡献总体上并不十分鼓舞人心。如果没有对朴素夸克模型基础的强烈偏见,达利茨评论中的大量证据,加上米特拉的评论,将使该理论得到普遍接受。如果有人发现夸克,那将是令人信服的,但正如琼斯遗憾地总结的那样,“我怀疑大多数实验主义者认为物理夸克要么不可观察,要么不存在”。利普金关于夸克模型作为强子动力学指南的讨论很有趣,例如梅什科夫、大久保和奥弗塞斯对对称性预测与实验的各种比较也很有趣。还有关于电流代数、部分守恒轴向矢量电流 (PCAC)、无限多重态等的论文。Yodh 有一篇非常详尽的文章,介绍了对称方案预测的 E* 共振的实验情况。但人们觉得可以通过查阅粒子数据组 (免费) 的最新出版物来获取更多最新信息。COLIN WrLKIN