作者/工作队成员:Isabelle C. van Gelder *†,(主席)(荷兰)(荷兰),Michiel Rienstra±,(委员会协调员)(荷兰)(荷兰),Karina V. Bunting±,(TOSSICT FORES FORCE FORES CORODINATOR)(UTICER FORCE CORDINATOR)(美)Casado-arry-arroyo-arroyo(belry caso)(belry caso),迭代(belry arriia case),迭代,迭代,迭代。Crijns(荷兰),Tom J.R. de Potter(比利时),杰里米·德怀特(英国),路易吉纳·瓜斯蒂(Luigina Guasti)(意大利),索斯滕·汉克(Thorsten Hanke)2(德国),小贾尔斯玛(瑞典),瑞典(瑞典),麦达拉娜·莱蒂诺(Maddalena Lettino) (荷兰),英格·莫尔加德(IngeMølgaard)(丹麦),Giuseppe M.C.Rosano(英国),Prashanthan Sanders(澳大利亚),B. Schnabel(德国),Piotr Suwalski 2(波兰),Emma Svennberg(瑞典),Juan Tamargo(西班牙),Otilia Tica(Romania)(罗马尼亚),Vassil Traykov(Vassil Traykov(ulgarii andiip) Kotecha *†,(主席)(英国)和Esc Scientific Document Group
摘要 - 机器学习(ML)任务是当今边缘计算网络中的主要工作量之一。现有的Edge-云调度程序将所需资源数量分配给每个任务,而最佳利用有限的边缘资源来完成ML任务。本文提出了Tapfinger,这是一种用于边缘群集的分布式调度器,可通过协作任务放置和精细元素的多资源分配来最大程度地减少ML任务的总完成时间。要学习任务不确定的资源敏感性和启用分布式计划,我们采用了多代理增强学习(MARL),并提出了几种技术以使其有效,包括MARL Backbone作为MARL Backbone,是Actor网络中的量身定制的任务选择阶段,以及Bayes theerem'theerem'orem and Ingess-Ingem and Ingem schem schem schem schem schem。我们首先实施一个单任务调度版本,该版本每次最多都有一个任务。然后我们将其推广到多任务调度案例,其中同时安排了一系列任务。我们的设计可以减轻扩展的决策空间,并产生快速收敛到最佳的调度解决方案。使用合成和测试床的ML任务痕迹进行了广泛的实验表明,与最先进的调度程序相比,Tapfinger的平均任务完成时间最高可减少54.9%,并提高资源效率。