加入开始结束序列 QHO60603.1 153 173 YEDFQENWNTKHSSGVTRELM QHO60603.1 395 416 ILRKGGRTIAFGGCVFSYVGCH QHO60603.1 556 563 NSVRVLQK QHO60603.1 590 607 ATNNLVVMAYITGGVVQL QHO60603.1 721 727 KSREETG QHO60603.1 761 777 DLQPLEQPTSEAVEAPL QHO60603.1 916 939 ASHMYCSFYPPDEDEEEGDCEEEE QHO60603.1 966 1038 AALQPEEEQEEDWLDDDSQQTVGQQDGSEDNQTTTIQTIVEVQPQLEMELTPVVQTIEVNSFSGYLKLTDNVY QHO60603.1 1088 1175 DYIATNGPLKVGGSCVLSGHNLAKHCLHVVGPNVNKGEDIQLLKSAYENFNQHEVLLAPLLSAGIFGADPIHSLRVCVDTVRTNVYLA QHO60603.1 1202 1229 IAEIPKEEVKPFITESKPSVEQRKQDDK QHO60603.1 1271 1294 SDIDITFLKKDAPYIVGDVVQEGV QHO60603.1 1549 1557 VITFDNLKT QHO60603.1 1778 1794 FKKGVQIPCTCGKQATK QHO60603.1 1934 1944 IKFADDLNQLT QHO60603.1 2026 2060 VLKSEDAQGMDNLACEDLKPVSEEVVENPTIQKDV QHO60603.1 2080 2082 NNS QHO60603.1 2171 2190 FFTLLLQLCTFTRSTNSRIK QHO60603.1 2210 2229 LEASFNYLKSPNFSKLINII QHO60603.1 2596 2610 TFSSTFNVPMEKLKT QHO60603.1 2782 2799 VAAIFYLITPVHVMSKHT QHO60603.1第3051章 3055 QHO60603.1 3139 3144 ITIAYI QHO60603.1 3586 3611 ILTSLLVLVQSTQWSLFFFLYENAFL QHO60603.1 4073 4086 IPDYNTYKNTCDGT QHO60603.1 4174 4187 TKGGRFVLALLSDL QHO60603.1 4390 4397 LQSADAQS QHO60603.1 4453 4489 DDNLIDSYFVVKRHTFSNYQHEETIYNLLKDCPAVAK QHO60603.1 4643 4672 TAESHVDTDLTKPYIKWDLLKYDFTEERLK QHO60603.1 5130 5131 TD QHO60603.1 5157 5172 FNSTYASQGLVASIKN QHO60603.1 6052 6058 PNNTDFS QHO60603.1 6144 6155 ASDTYACWHHSI QHO60603.1 6417 6434 LYLDAYNMMISAGFSLWV QHO60603.1 6458 6493 FNVVNKGHFDGQQGEVPVSIINNTVYTKVDGVDVEL QHO60603.1 6542 6573 DAPAHISTIGVCSMTDIAKKPTETICAPLTVF QHO60603.1 6603 6630 QPSVGPKQASLNGVTLIGEAVKTQFNYY QHO60603.1 6652 6674 QEFKPRSQMEIDFLELAMDEFIE QHO60603.1 6694 6715 SQLGGLHLLIGLAKRFKESPFE QHO60603.1 7062 7086 GQINDMILSLLSKGRLIIRENNRVV QHO60602.1 9 28 PFTIYSLLLCRMNSRNYIAQ QHO60601.1 10 32 NAPRITFGGPSDSTGSNQNGERS QHO60601.1 62 78 DLKFPRGQGVPINTNSS QHO60601.1 216 233 AALALLLLDRLNQLESKM QHO60601.1 401 409 DFSKQLQQS QHO60600.1 9 43 ITTVAAFHQECSLQSCTQHQPYVVDDPCPIHFYSK QHO60600.1 103 108 FYEDFL QHO60599.1 9 10 IT QHO60599.1 71 73 KHV QHO60599.1 94 111 ELYSPIFLIVAAIVFITL QHO60598.1 42 48 SLTENKY QHO60595.1 9 39 IGTVTLKQGEIKDATPSDFVRATATIPIQAS QHO60595.1 89 126 VYSHLLLVAAGLEAPFLYALVYFLQSINFVRIIMRL QHO60595.1 170 181 SGDGTTSPISEH QHO60594.1 9 275 LVSSQCVNLTTRTQLPPAYTNSFTRGVYYPDKVFRSSVLHSTQDLFLPFFSNVTWFHAIHVSGTNGTKRFDNPVLPFNDGVYFASTEKSNIIRGWIFGTTLDSKTQSLLIVNNATNVVIKVCEFQFCNDPFLGVYYHKNNKSWMESEFRVYSSA NNCTFEYVSQPFLMDLEGKQGNFKNLREFVFKNIDGYFKIYSKHTPINLVRDLPQGFSALEPLVDLPIGINITRFQTLLALHRSYLTPGDSSSGWTAGAAAYYVGYLQPRTFL QHO60594.1 305 325 FTVEKGIYQTSNFRVQPTESI QHO60594.1 345 371 RFASVYAWNRKRISNCVADYSVLYNSA QHO60594.1 392 416 TNVYADSFVIRGDEVRQIAPGQTGK QHO60594.1 437 531 SNNLDSKVGGNYNYLYRLFRKSNLKPFERDISTEIYQAGSTPCNGVEGFNCYFPLQSYGFQPTNGVGYQPYRVVVLSFELLHAPATVCGPKKSTN QHO60594.1 553 574 ESNKKFLPFQQFGRDIADTTDA QHO60594.1 605 725 NQVAVLYQDVNCTEVPVAIHADQLTPTWRVYSTGSNVFQTRAGCLIGAEHVNNSYECDIPIGAGICASYQTQTNSPRRARSVASQSIIAYTMSLGAENSVAYSNNSIAIPTNFTISVTTEI QHO60594.1 871 883 QYTSALLAGTITS
根据目标问题,最佳 ML 模型和支持生命周期 (E4) 的复杂性可能会有很大差异。对于较简单的问题,线性回归、较小的决策树和具有少量节点和层的简单神经网络 (NN) 就足够了。对于更复杂的问题,可能需要具有许多层和节点以及多个卷积层的大型决策树或深度神经网络 (DNN) 来实现所需的准确性。用于控制优化目标的 RL 方法和支持代理 (E7) 在学习新颖的 RAN 管理策略方面尤其有效。训练 RL 模型依赖于通过软件代理的反复试验进行主动探索,这在实时 RAN 系统中并不总是可行或合适的。为了帮助解决这个问题,并生成训练模型所需的数据量,我们在我们的软件推动器集中包含了模拟 (E6)。经过训练后,ML 模型可用于推理阶段(E3 的一部分),其中选择的数据被用作模型的输入,然后模型将产生一组预测、操作或规则,具体细节取决于 ML 算法类型。在 RAN 中,训练和推理阶段的硬件和软件要求可能大不相同。训练通常需要强大的中央处理单元或专用图形处理单元 (GPU) 硬件,具有大内存和数据存储。AI 软件平台(例如 TensorFlow、Keras 和 PyTorch)以及其他广泛的开源(E5)、通常基于 Python 的 ML 软件生态系统需要集成到软件工程流程中。在推理阶段,通过模型生命周期管理 (E4) 向 RAN 应用程序提供经过训练的模型(或多个模型)。对于延迟至关重要的 RAN 边缘应用,需要高效实现推理,具有低延迟、低功耗和内存占用,同时考虑目标硬件和软件架构的特性。我们的软件推动器与基于意图的管理解决方案完全兼容 [5]。
量子神经网络 (QNN) 源于在经典神经网络 (NN) 的并行处理特性中添加了关联、纠缠和叠加等量子特性,这种方法有望提高神经网络的性能 [1-3]。尝试用量子计算机实现神经计算(深度学习)通常会导致不兼容,因为前者的动态是非线性和耗散的,而后者的动态是线性和幺正的(耗散只能通过测量引入)。尽管如此,最近还是提出了一组显示联想记忆的 QNN 的理想特性 [4]:i)QNN 应产生在某些距离测量方面最接近输入状态的输出状态;ii)QNN 应包含神经计算机制,如训练规则或吸引子动态;iii)QNN 的演化应基于量子效应。吸引子神经网络 (aNN) 是一类特殊的 NN。它们由 n 个相互作用的节点(人工神经元)集合实现,这些节点动态地向系统能量最小的状态之一演化 [5]。这种亚稳态被称为吸引子或模式。吸引子神经网络用于模拟联想记忆,即从一组存储的模式中检索出根据汉明距离最接近噪声输入的状态的能力。显然,吸引子的数量越多,联想记忆就越大,即 aNN 的存储容量就越大。aNN 的一个典型例子是 Hopfield 模型 [6],它由一层 n 个人工神经元组成,用一组二进制变量 {xi}ni=1,xi∈{±1} 表示,它们根据自旋玻璃哈密顿量成对相互作用。理想情况下,aNN 的量子类似物(我们将其称为 aQNN)应该满足上述要求。因此,经典比特在这里被在完全正向和迹保持 (CPTP) 映射作用下演化的量子比特所取代。aQNN 的存储容量对应于
非对称随机电报信号是在两个能级 y = y 1 和 y = y 2 之间随机切换的信号。它们是对各种物理系统进行测量的常见结果,包括细胞中的离子通道 [1]、晶体管 [2, 3] 等半导体器件、量子点 [4] 和光电器件 [5]、高温超导体 [6] 和单库珀对盒 [7],也是 1 /f 噪声的组成部分 [8]。从 1 (2) 到 2 (1) 的转换率 Γ 1(2) 是描述底层系统动态的可访问参数,通常需要从测量的时间序列中提取它们。最直接的方法是按某个速率 fs 对时域信号进行采样,将其分为状态 1 和 2 中的各一个周期(图 1(a)),对停留时间 τ 1(2) 进行直方图绘制,并根据得到的分布拟合 ke − Γ 1(2) τ 1(2)。但是,噪声和有限的测量带宽的存在会导致测得的统计数据不能准确地代表底层系统。问题有两个方面:一个状态下的噪声可能导致检测到另一个状态下的错误时间周期(图 1(b)),而有限的带宽意味着看不到另一个状态的真正短周期偏移(图 1(c))。后者还会将错过的周期两侧的两个周期连接在一起,导致出现错误的长周期。已经提出了多种解决该问题的方法。一些研究侧重于优化将信号划分为状态 1 和 2 的阈值 [9]。Naaman 和 Aumentado 将检测器建模为一个单独的过程 [10],并对测量的速率进行校正。其他技术包括小波边缘检测 [11]、自相关方法 [12]、互相关方法 [13] 和信号概率密度函数分析 [14, 15]。在本文中,我们证明了循环神经网络可用于从嘈杂、带宽受限的随机电报信号中提取底层速率。神经网络 (NN) 包括一个输入层,其中包含
我们生活在一个信息爆炸和数字革命的时代,这导致了生活不同方面的技术快速发展。人工智能(AI)在这场数字化转型中发挥着越来越重要的作用。AI应用需要具有低延迟连接的边缘云计算,而其中最大的挑战是它需要大量的计算机处理能力。最近,基于光学硬件的AI实现[1-5]因其从根本上降低功耗和加快计算速度而成为热门话题。另一方面,作为现代电信和数据通信的基础,光网络变得越来越复杂,数据和连接越来越多。生成、传输和恢复如此大容量的数据需要具有高性能、高成本和高功耗效率的先进信号处理和网络技术。AI对于表现出复杂行为的系统的优化和性能预测特别有用[6-20]。在这方面,传统的信号处理算法可能不如AI算法高效。人工智能方法近期已进入光学领域,涉及量子力学、纳米光子学、光通信和光网络。特刊旨在将光学和人工智能结合起来,以应对各自面临的难以单独解决的挑战。特刊精选了 12 篇论文,代表了光学和人工智能相结合领域令人着迷的进展,从光子神经网络 (NN) 架构 [5] 到人工智能在光通信中的进展,包括物理层收发器信号处理 [10-17] 和网络层性能监控 [18,19],以及人工智能在量子通信中的潜在作用 [20]。光子神经网络架构:石斌等人提出了一种基于广播和权重方法的新型光子加速器架构,通过光子集成交叉连接实现深度 NN [5]。测试了一个用于图像分类的三层 NN,结果表明每个光子神经层都可以达到高于 85% 的准确率。它为设计可扩展到更高维度的光子 NN 以解决更高复杂度的问题提供了见解。正如书中所反映的那样,人工智能的应用,尤其是机器学习在光通信领域的应用更受欢迎。在物理收发器层,讨论最多的话题是使用机器学习来减轻从短距离到长距离应用的光通信系统中的各种线性和非线性影响。用于短距离光通信的人工智能:对于短距离可见光通信,陈晨等人引入了一种概率贝叶斯学习算法来补偿发光二极管
近来,需要高平均功率激光束的应用数量急剧增加,涉及大型项目,如空间清洁 [1]、航天器推进 [2]、粒子加速 [3],以及工业过程 [4] 或防御系统 [5]。激光光束组合是达到极高功率水平的最常用方法之一,特别是相干光束组合 (CBC) 技术 [6]。它们旨在对放大器网络传输的平铺激光束阵列的发射进行相位锁定,以产生高亮度的合成光束。由于实际激光系统(尤其是光纤激光系统)中阵列中光束之间的相位关系会随时间演变,因此这些技术必须通过伺服环路实时校正合成平面波的相位偏差。近年来,CBC 技术得到了广泛发展,探索了调整合成离散波前中各个相位的不同方法。它们可以分为两大类。在第一类中,测量阵列中光束的相位关系,然后进行校正 [7]。在第二种方法中,实际波前和期望波前之间的差异通过迭代过程得到补偿 [8]。在后一种情况下,优化算法驱动反馈回路,分析所有光束之间干涉的阵列相位状态的更多全局数据 [9,10]。这些技术通常更易于实施,所需电子设备更少,但需要更复杂的数值处理,其中一些技术在处理大量光束时速度会降低。最后一个问题与反馈回路中达到预期相位图所需的迭代次数有关,该迭代次数会随着要控制的相位数的增加而迅速增加。最近,人们研究了神经网络 (NN) 和机器学习,以期找到一种可能更简单、更有效的方法来实现相干光束组合。已发表的文献 [11] 中涉及的一种方案依赖于卷积神经网络 (VGG) 的直接相位恢复,然后一步完成相位校正,例如在自适应光学 NN 的开创性工作 [12]。 NN 用于将光束阵列干涉图样的强度(在透镜焦点处形成的远场或焦点外的图像、分束器后面的功率等)直接映射到阵列中的相位分布中。恢复初始相位图后,可以直接应用相位调制将相位设置为所需值。[11] 中报告的模拟表明,当阵列从 7 条光束增加到 19 条光束时,基于 CNN 的相位控制的精度会下降。这一限制在波前传感领域也得到了强调,因此 NN 通常仅用作初始化优化程序的初步步骤 [13]。另一种可能的方案是强化
骨科手术后使用止痛药缓解术后疼痛是围手术期医学的一个主要问题。特别是在肩部手术(例如肩袖修复)、全关节置换和肢体创伤的情况下,预计疼痛程度会很高;因此,必须采用高效的策略来加快恢复,避免患者不适和痛苦,并降低疼痛相关并发症的风险 [ 1 – 3 ]。在多模式疼痛治疗中,医生通常会联合使用两种或两种以上的止痛药 [ 4 , 5 ]。由于这些药物之间可能存在药理学相互作用,因此很少知道疗效的预测。相互作用可以基于作用机制(例如受体上的药效学)或药代动力学途径。例如,高达 95% 的双氯芬酸在吸收后与血清白蛋白结合,在肝脏中经 CYP 3A4 羟基化和葡萄糖醛酸化后经肾脏消除。临床效果是通过阻断环氧合酶 I 和 II 实现的,从而导致前列腺素的合成减少。对乙酰氨基酚也通过环氧合酶途径表现出其作用,抑制前列腺素合成。另一方面,阿片类药物通过受体起作用,这些受体对这些镇痛药具有特异性,在肝脏中经 CYP 3A4 羟基化后消除。因此,对于临床医生来说,两种以上药物的组合可能不清楚,并且对处方的净效应感到困惑。术后处方中含有具有各种药代动力学和药效学特性的阿片类药物和非阿片类药物。据我们所知,关于当以两种以上药物组合使用时这些特性如何变化的数据很少,而且很少发表(如果有的话)[6-11]。对具有大量止痛药组合的止痛药的任何统计评估都面临着严峻的挑战:使用传统统计方法得出结论极其困难。我们使用人工智能方法 [12-15] 来克服这一困难。我们使用(人工)神经网络(NN)进行数据分析;具体来说,我们使用称为自动编码器的无监督神经网络(图 1)。这些无监督神经网络通过最小化损失(输入和输出之间的差异的平方和,在训练集上取平均值)来生成高精度模拟输入的输出(因此得名:自动编码器)。特征向量在下一段中描述。然后,我们将每个输入特征向量的代码层权重用作降维特征向量的坐标(图 1)。疼痛程度是分类变量,所施用的止痛药也是如此。我们使用独热编码为每个患者生成一个 38 维特征向量(参见方法部分)。这些特征向量并不独立。降维算法(神经网络自动编码器)找到独立性并将结果映射到二维流形(平面图)上。每个患者都是这个平面上的一个点,这些点不是随机分布的;相反,它们是聚集的。在我们掌握的众多聚类算法中,我们使用 DBSCAN 聚类算法 [ 16 ],因为将其应用于点可以识别出具有许多共同止痛药的鸡尾酒聚类。相互依赖性产生包含高效止痛药的聚类;正如我们下面讨论的那样,这一发现无法通过任何其他方式找到(有 61 种不同的止痛药鸡尾酒,总共 750×2 = 1500 种疼痛
该过程的计算成本可能很高,特别是对于高维问题以及需要非结构化网格时,例如为了解释局部不规则行为。然后可以使用各种数值方法(例如有限元 (FEM)、有限差分 (FDM) 或有限体积 (FVM))求解该离散方案。但即使是这些方法对于大型复杂问题也可能效率低下。例如,描述流体运动的 Navier-Stokes 方程的解可能需要超级计算机上数百万小时的 CPU 或 GPU 时间。另一个例子是泊松方程,它是工程学中最重要的偏微分方程之一,包括热传导、引力和电动力学。在高维环境中对其进行数值求解只能使用迭代方法,但迭代方法通常不能很好地随着维度而扩展和/或在处理边界条件或生成离散化网格时需要专业知识。神经网络 (NN) 非常适合解决此类复杂 PDE,并且已在工程和应用数学的各个领域用于复杂回归和图像到图像的转换任务。科学计算界早在 20 世纪 80 年代就已将其应用于 PDE 求解 [ 20 ],但近年来人们对它的兴趣呈爆炸式增长,部分原因是计算技术的显著进步以及此类网络公式的改进,例如在 [ 4 , 21 , 32 ] 中详细介绍和强调过。量子计算是一种变革性的新范式,它利用了微观物理尺度上的量子现象。虽然设计难度显著增加,但量子计算机可以运行专门的算法,这些算法的扩展性比传统计算机更好,有时甚至呈指数级增长。量子计算机由量子位组成,与传统数字计算机中的位不同,量子位基于量子物理的两个关键原理存储和处理数据:量子叠加和量子纠缠。它们通常会出现特定的误差,即量子误差,这些误差与其量子比特的量子性质有关。即使目前还没有足够复杂度的量子计算机,我们也显然需要了解我们希望在其上执行哪些任务,并设计方法来减轻量子误差的影响 [ 29 ]。量子神经网络形成了一类新的机器学习网络,利用叠加和纠缠等量子力学原理,有可能处理复杂问题和 / 或高维空间。量子神经网络的建议架构包括 [ 7 , 11 , 34 ],并表明它可能具有潜在的优势,包括更快的训练速度。对量子机器学习的初步理论研究表明,量子网络可以产生更易于训练的模型 [ 1 ]。这与使用机器学习解决 PDE 问题尤其相关,因为产生更有利损失景观的技术可以大大提高这些模型的性能 [13,18]。在目前的研究中,我们提出了一种制定量子神经网络的新方法,将一些经典的机器学习技术转化为量子设置,并在特定的 PDE(Heat、Poisson 和 HJB 方程)背景下开发复杂性分析。这提供了一个框架来展示量子神经网络作为 PDE 求解器的潜力和多功能性。本文结构如下:第 2 部分介绍 PINN 算法,并回顾经典和量子网络的基础知识。在第 3 部分中,我们介绍了一种新颖的
生成模型一直是机器学习研究中特别受关注的一个领域,成功的模型架构极大地改进了生成模型,包括变分自编码器 (VAE)、生成对抗网络 (GAN) 和可逆神经网络 (INN) [1-3]。除其他应用外,生成模型在事件生成中的应用也得到了广泛研究 [4-6]。与马尔可夫链蒙特卡洛 (MCMC) 技术 [7-11] 相比,生成模型的优势不仅限于提高推理速度,而后者迄今为止已成为领先的 LHC 模拟和解释方法。此外,生成模型可以进行端到端训练,从而实现更全面的应用,如展开 [12-14]、异常检测 [15-19] 等等 [20]。然而,这些神经网络 (NN) 的参数空间巨大,使其能够模拟复杂的交互,但这也导致对计算资源的需求巨大。流行的 NN 架构的规模早已达到计算可行性的边界。量子机器学习 (QML) 将量子计算的强大功能引入现有的机器学习基础,以建立并利用量子优势,从而实现量子算法独有的性能提升。虽然基于门的量子计算与经典计算有很大不同,但已经构建了许多与上述经典生成网络等效的模型,包括量子自动编码器 [ 21 ] 和量子 GAN [ 22 – 27 ]。值得注意的例外是 INN [ 28 , 29 ],它们尚未转移到 QML 领域。此类网络将成为量子神经网络 (QNN) 阵列的理想补充。虽然经典 INN 中雅可比行列式的可处理性使它们能够执行密度估计,这从本质上防止了模式崩溃,但通常无法有效地计算完整的雅可比矩阵 [ 30 ]。 INN 中完全可处理的雅可比矩阵(QNN 可用)将允许高效学习主要数据流形 [31-34],为可解释的表示学习和对底层过程的新洞察开辟机会。基于耦合的 INN 架构已通过经验证明对消失梯度问题更具弹性 [28],这使它们可以直接受益于具有许多参数的深度架构。然而,到目前为止列出的许多 INN 应用已经需要大量的训练资源。目前的研究表明,量子模型可以避免这种对巨大参数空间的需求。它们在表达力方面胜过常规 NN,能够用少得多的参数表示相同的变换 [35-39]。这一理论基础得到了几个专门构建的 QML 电路实例的支持,这些电路为专门设计的问题提供了比经典解决方案更有效的解决方案 [ 40 – 43 ]。QNN 已经成功应用于相对有限的高能物理问题 [ 21 , 25 , 44 – 46 , 46 – 51 ] 以及非 QML 方法 [ 52 – 56 ]。然而,据我们所知,尚未尝试构建可逆 QNN,该 QNN 可通过其可逆性用作生成任务的密度估计器。通过这项工作,我们旨在填补与经典 INN 量子等价的剩余空白,开发量子可逆神经网络 (QINN)。我们展示了如何将 QNN 流程中的每个步骤设计为可逆的,并展示了模拟网络估计分布密度的能力。作为原理证明,我们将我们的模型应用于最重要、研究最多的高能物理过程之一的复杂模拟 LHC 数据,pp → Z j → ℓ + ℓ − j,
许可论文涉及元启示术,这是启发式方法的集合。可以说升华是经验法则或辅助方法,该方法被算法用来有效达到解决方案。只是元启发术是指导不同的优化技术,并且最近受到了很多关注。这种关注的原因是荟萃奴术促进复杂和大规模问题的解决方案的能力,尤其是在经典算法试图更准确地解决问题的情况下,很难遇到困难。几种荟萃方法基于自然界中发生的各种过程。这些包含各种SO所谓的进化方法以及基于身体和人类行为的方法。这些事实证明,这些问题对于解决了许多条件,解决问题的优化问题非常有用,因此要解决的问题非常广泛,因此计算很重。在云计算(云计算)中,我们在SO称为云中实现计算,即通过Internet,而不是直接在我们自己的计算机上执行这些计算。在进行云计算的情况下,元启发式学很有用。这样做的原因是,在工业和科学中,无论是在个人计算机上进行的计算和其他工作还是其他工作,都已经转移到云中。这意味着在云中计算中常见的各种操作,例如有效安排了不同的计算和资源分配,以避免可能的绩效损失。这些观察是许可论文提出的研究的动机。许可论文研究了不同的新优化方法,以及这些方法如何通过研究如何改善绩效和资源管理来改善绩效和资源管理,还可以通过研究如何培训计算的成本来提高绩效和资源管理。许可论文分为两个部分,第一部分涉及理论背景,在这些背景中,准备了不同的理论优化方法和工程问题。本节还提出了有关在云上下文中与调度有关的当前挑战的讨论。论文的第二部分由三项已发表的研究组成,这些研究涉及不同方法的实际影响以改善云中的计算操作。总而言之,可以说,许可论文涉及优化驱动的计划,例如,我们如何在云中更有效地执行计算。