密克罗尼西亚联邦 (FSM) 的国家教育部 (NDOE) 已获得世界银行的支持,通过 FSM 技能和就业能力提升 (SEE) 项目加强其技术职业教育和培训 (TVET) 机构和就业服务。作为教育专家,咨询服务(“服务”)包括在实施与教育相关的项目组成部分时提供技术专业知识和后勤支持。在 SEE 项目经理的直接监督下,教育专家将在支持项目实施部门 (PIU) 实施和监督项目计划、时间表、预算和支出方面发挥关键作用,特别关注项目的教育相关组成部分、子组成部分和活动。本文件的附件中附有该任务的详细职责范围 (TOR),也可以在以下网站找到。所有候选人在提交意向书 (EOI) 之前都应仔细阅读职责范围:
摘要 — 图神经网络 (GNN) 近年来因其处理图数据的能力而引起了广泛的研究关注,并已广泛应用于实际应用中。随着社会越来越关注数据隐私保护的需求,GNN 面临着适应这一新常态的需求。此外,由于联邦学习 (FL) 中的客户端可能存在关系,因此需要更强大的工具来利用这些隐含信息来提高性能。这导致了联邦 GNN (FedGNN) 这一新兴研究领域的快速发展。这个有前途的跨学科领域对于感兴趣的研究人员来说极具挑战性。缺乏对这个主题的深入调查进一步加剧了进入的难度。在本文中,我们通过对这一新兴领域进行全面调查来弥补这一空白。我们提出了 FedGNN 文献的二维分类法:1) 主要分类法通过分析 GNN 如何增强 FL 训练以及 FL 如何协助 GNN 训练,为 GNN 和 FL 的集成提供了清晰的视角;2) 辅助分类法提供了 FedGNN 如何处理 FL 客户端之间的异质性的观点。通过讨论现有作品的关键思想、挑战和局限性,我们展望了未来的研究方向,这些方向可以帮助构建更强大、更可解释、更高效、更公平、更具归纳性和更全面的 FedGNN。
离线增强学习(RL)试图使用离线数据学习最佳策略,由于其在在线数据收集不可行或昂贵的关键应用程序中的潜力,因此引起了极大的兴趣。这项工作探讨了联合学习对离线RL的好处,旨在协作利用多个代理商的离线数据集。专注于有限的情节表格马尔可夫决策过程(MDPS),我们设计了FedLCB-Q,这是针对联合离线RL量身定制的流行无模型Q学习算法的变体。FedLCB-Q更新了具有新颖的学习率时间表的代理商的本地Q-功能,并使用重要性平均和精心设计的悲观惩罚项将其在中央服务器上汇总。Our sample complexity analysis reveals that, with appropriately chosen parameters and synchronization schedules, FedLCB-Q achieves linear speedup in terms of the number of agents without requiring high-quality datasets at individual agents, as long as the local datasets collectively cover the state-action space visited by the optimal policy, highlighting the power of collaboration in the federated setting.实际上,样本复杂性几乎与单代理对应物的复杂性匹配,好像所有数据都存储在中心位置,直到地平线长度的多项式因子。此外,fedlcb-Q是通信有效的,其中通信弹的数量仅相对于地平线长度与对数因素有关。
培训大规模人工智能(AI)模型需要大量的计算能力和能量,从而导致碳足迹增加,并带来潜在的环境影响。本文深入研究了跨地理分布(地理分布)数据中心训练AI模型的挑战,强调了学习绩效与碳足迹之间的平衡。我们将联合学习(FL)视为解决方案,将模型参数交换优先于原始数据,从而确保数据隐私并遵守本地法规。鉴于各个地区的碳强度的可变性,我们提出了一个名为CAFE的新框架(碳吸引联合学习的缩写),以优化固定碳足迹预算内的培训。我们的方法结合了核心选择以评估学习绩效,采用Lya-punov漂移加上五型框架来解决未来碳强度的不可预测性,并设计有效的算法来解决数据中心选择的组合复杂性。通过使用现实世界中的碳强度数据进行广泛的模拟,我们证明了算法的功效,强调了其优于现有方法在优化学习性能的同时最小化环境影响的优势。
联合学习(FL)包括用于机器学习的分散培训算法的家族[1] - [3],使内部分裂能够在不集中培训数据的情况下协作训练模型。这种方法通过将培训计算分配到边缘来减轻数据中心的计算负担。但是,至关重要的是要注意,尽管联邦学习提供了一个分散的框架,但它可能无法继承客户的隐私。中央服务器收到的更新有可能无意间揭示有关客户培训数据的信息[4],[5]。保护客户对联合学习的隐私的流行策略包括基于差异的隐私(DP)和基于同型加密(HE)方法。DP的想法是在梯度上添加噪音,以保护梯度的保密性[6]。基于DP的学习算法的现有作品包括本地DP(LDP)[7],具有选择性参数更新[8],基于晶格[9]等的DP等。尽管可以直接采用DP,但它具有较弱的隐私保证和潜在准确性损失的缺点。他是一种加密技术,可以在加密数据上执行计算,而无需首先解密。在联邦学习的背景下,同构加密在确保个别参与者数据的隐私方面起着至关重要的作用。由于FL中的梯度的聚集仅涉及添加,因此许多最近的作品[10],[11]提议采用基于Paillier [12]的加性同构加密。某些基于晶格的问题,例如但是,一旦可以使用Shor的量子算法有效地将大整数构成大型整数[13],Paillier的安全性就会损坏。基于晶格的密码学被认为是抗量子的[14] - [16]。
联邦学习 (FL) 是一种新兴的机器学习技术,它支持跨数据孤岛或边缘设备进行分布式模型训练,而无需数据共享。然而,与集中式模型训练相比,FL 不可避免地会带来效率低下的问题,这将进一步增加未来机器学习本已很高的能耗和相关的碳排放。减少 FL 碳足迹的一种方法是根据电网中特定时间和地点可能出现的可再生过剩能源的可用性来安排训练作业。然而,面对如此不稳定且不可靠的资源,现有的 FL 调度程序无法始终确保快速、高效和公平的训练。我们提出了 FedZero,这是一个专门依靠可再生过剩能源和计算基础设施的闲置容量运行的 FL 系统,可有效地将训练的运营碳排放量降至零。通过利用能源和负荷预测,FedZero 通过选择客户端实现快速收敛和公平参与,从而利用过剩资源的时空可用性。我们基于实际的太阳和负载轨迹进行的评估表明,在上述约束条件下,FedZero 的收敛速度明显快于现有方法,同时消耗的能量更少。此外,它对预测误差具有很强的鲁棒性,可扩展到数万个客户端。
联邦学习(FL)完成了协作模型培训,而无需共享本地培训数据。但是,现有的FL聚合方法遭受了效率低下,隐私脆弱性和对中毒攻击的忽视,从而严重影响了模型培训的整体性能和可靠性。为了应对这些挑战,我们提出了Superfl,这是一种有效的两服务汇总计划,既可以保存又可以保护中毒攻击。两个半honest服务器S 0和S 1相互协作,带有Shuffle Server S 0负责隐私聚类,而分析服务器S 1负责稳健性检测,识别和过滤恶意模型更新。我们的计划采用了同质加密和代理重新加密的新型组合,以实现安全的服务器与服务器协作。我们还利用一种新型的稀疏矩阵投影压缩技术来提高通信效率并显着降低开销。为了抵制中毒攻击,我们基于可信赖的根,将降低维度降低和规范计算引入双过滤算法,以识别恶意模型更新。广泛的实验验证了我们方案的效率和鲁棒性。SuperFL达到了令人印象深刻的压缩比,范围从5-40 x,在不同的模型下,同时以基线为基准的可比较模型精度。值得注意的是,我们的解决方案在MNIST和CIFAR-10数据集中分别显示出最大模型的准确性不超过2%和6%,在特定的压缩比和恶意客户的存在下。
摘要 - 机器学习的许多形式(ML)和人工智能(AI)技术在通信网络中采用以执行所有优化,安全管理和决策任务。而不是使用常规的黑框模型,而是使用可解释的ML模型来提供透明度和问责制。此外,由于网络的分布性和安全隐私问题,联合学习(FL)类型ML模型比典型的集中学习(CL)模型变得越来越流行。因此,研究如何使用可解释的AI(XAI)在不同的ML模型中找到解释能力是非常及时的。本文在网络中使用XAI在CL和FL的异常检测中进行了全面分析。我们将深层神经网络用作黑框模型,其中两个数据集,即UNSW-NB15和NSL-KDD,以及Shapley添加说明(SHAP)作为XAI模型。我们证明,FL的解释与客户端异常百分比不同。索引术语-6G,安全性,隐私,可解释的AI,中央学习,联合学习。
联邦学习 (FL) 是一种新兴的机器学习技术,它支持跨数据孤岛或边缘设备进行分布式模型训练,而无需数据共享。然而,与集中式模型训练相比,FL 不可避免地会带来效率低下的问题,这将进一步增加未来机器学习本已很高的能耗和相关的碳排放。减少 FL 碳足迹的一种方法是根据电网中特定时间和地点可能出现的可再生过剩能源的可用性来安排训练作业。然而,面对如此不稳定且不可靠的资源,现有的 FL 调度程序无法始终确保快速、高效和公平的训练。我们提出了 FedZero,这是一个专门依靠可再生过剩能源和计算基础设施的闲置容量运行的 FL 系统,可有效地将训练的运营碳排放量降至零。通过利用能源和负荷预测,FedZero 通过选择客户端实现快速收敛和公平参与,从而利用过剩资源的时空可用性。我们基于实际的太阳和负载轨迹进行的评估表明,在上述约束条件下,FedZero 的收敛速度明显快于现有方法,同时消耗的能量更少。此外,它对预测误差具有很强的鲁棒性,可扩展到数万个客户端。
联邦学习 (FL) 是一种新兴的机器学习技术,它支持跨数据孤岛或边缘设备进行分布式模型训练,而无需数据共享。然而,与集中式模型训练相比,FL 不可避免地会带来效率低下的问题,这将进一步增加未来机器学习本已很高的能耗和相关的碳排放。减少 FL 碳足迹的一种方法是根据电网中特定时间和地点可能出现的可再生过剩能源的可用性来安排训练作业。然而,面对如此不稳定且不可靠的资源,现有的 FL 调度程序无法始终确保快速、高效和公平的训练。我们提出了 FedZero,这是一个专门依靠可再生过剩能源和计算基础设施的闲置容量运行的 FL 系统,可有效地将训练的运营碳排放量降至零。通过利用能源和负荷预测,FedZero 通过选择客户端实现快速收敛和公平参与,从而利用过剩资源的时空可用性。我们基于实际的太阳和负载轨迹进行的评估表明,在上述约束条件下,FedZero 的收敛速度明显快于现有方法,同时消耗的能量更少。此外,它对预测误差具有很强的鲁棒性,可扩展到数万个客户端。