近年来,联邦学习(FL)作为分布式机器学习范式引起了极大的关注。为了促进“被遗忘的权利”的实施,Feder-Eted Machine Unrearning(FMU)的概念也出现了。但是,当前的FMU方法通常涉及额外的耗时步骤,并且可能没有全面的未学习能力,这使得它们在实际的FL情况下的实用性降低了。在本文中,我们介绍了Fedau,这是一个创新有效的FMU框架,旨在克服这些限制。具体来说,Fedau将轻量级的辅助辅助模块置于学习过程中,并采用直接的线性操作来促进学习。这种方法消除了对耗时的步骤的要求,使其适合FL。此外,Fedau表现出了惊人的多功能性。它不仅使多个客户能够同时执行学习任务,还可以支持各种粒度级别的学习,包括各个数据示例,特定类别,甚至在客户级级别。我们对MNIST,CIFAR10和CI-FAR100数据集进行了扩展实验,以评估Fedau的性能。结果表明,在保持模型准确性的同时,Fedau效率地实现了所需的未学习效果。
分裂学习(SL)和联合学习(FL)的整合提供了一个令人信服的机会,可以解决两种方法的固有局限性,并创建更强大的,具有隐私性的分布式学习系统。拆分学习,涉及将机器学习模型跨多个方分开,并在数据隐私和计算效率方面具有优势。通过分发模型组件,敏感数据保持本地化,从而减轻与集中数据收集相关的隐私风险。此外,SL可以通过在Singh等人的多个设备上分配训练工作量来提高计算效率,2019年。联合学习专注于分散数据的培训模型,而无需共享原始数据。这种方法在实现协作模型开发的同时保留了数据隐私。但是,FL可能会遭受沟通开销和处理异质数据分布的挑战。结合这两种技术具有创造一种协同方法的潜力,该方法在减轻它们的弱点的同时利用了两者的优势。例如,通过将SL的模型分区与FL的分散培训集成在一起,可以解散既具有隐私性且在计算上有效的分布式学习系统。这种组合还可以通过减少数据异质性和改善收敛性的影响来增强系统的鲁棒性。此外,SL和FL之间的协同作用可以为研发开辟新的途径。例如,探索针对不同类型的模型和数据分布的最佳分区策略是一个关键的调查领域。此外,开发有效的通信协议,用于在联合设置中的分配模型组件之间交换模型更新对于实际实施至关重要。总而言之,分裂学习和联合学习的结合为开发更安全,高效和可扩展的分布式学习系统提供了有希望的途径。通过仔细考虑两种方法的优势和劣势,研究人员和从业人员都可以释放这种协同组合的全部潜力。
联邦学习和迁移学习是两种不同的机器学习方法,通常独立应用。然而,将这些方法结合起来,有可能为各个行业带来巨大的价值。本文系统地回顾了有关这两种技术的现有文献,并介绍了一种集成联邦学习和迁移学习以提高机器学习模型性能的新框架。所提出的框架可用于一系列应用,包括医疗保健(用于检测心脏病、癌症和中风)、零售(用于预测客户流失)以及电网、石油和天然气和制造业等工业领域(用于识别设备故障、电网负荷等)。通过融合这些技术,该框架提高了模型准确性和可扩展性,同时确保了分布式环境中的数据隐私。
为了衡量基金的环境绩效,所使用的关键绩效指标是碳足迹。这衡量了该基金中公司在投资的每百万单位货币单位产生的碳排放。该计算既是直接和间接温室气体排放量,均由范围1、2和3排放的行业标准定义涵盖。如果第1页引用了基准标准,则该基金的环境绩效也将与基准测试。因此,比基准的碳足迹数字较小的证据表明,根据基金中持有的市场价值调整的基金的排放量低于基准的排放。但是,请注意,除非基金目标中陈述,否则该基金没有特定的环境绩效目标。表中显示的碳足迹数字在上个月末很准确。
摘要:联合学习(FL)是一种允许多个参与者协作训练深神经网络(DNN)的技术,而无需集中数据。除其他优点外,它具有保护隐私性的财产,使其对在敏感环境(例如医疗保健或军方)的应用中具有吸引力。尽管没有明确交换数据,但培训程序需要共享有关参与者模型的信息。这使各个模型容易受到恶意演员的盗窃或未经授权的分配的影响。为了解决机器学习(ML)的所有权保护问题,在过去的五年中已经开发了DNN水印方法。大多数现有的作品都以集中式的方式着重于水印,但仅针对FL及其独特的限制设计了一些方法。在本文中,我们概述了联合学习水印的最新进步,阐明了这一领域中出现的新挑战和机遇。
摘要 - 联邦学习(FL)作为一个分离的机器学习范式的出现,引入了新的Cybercurity挑战,尤其是威胁模型完整性和参与者隐私的对抗性攻击。本研究提出了一个受控制流(CFA)机制启发的创新安全框架,传统上用于网络安全,以确保软件执行完整性。通过在FL框架内集成数字签名和加密散布,我们对整个网络跨网络的模型更新的完整性进行了验证,从而有效地减轻了与模型中毒和对抗性干扰相关的风险。我们的方法是将CFA原理应用于FL的新颖性,可确保参与节点的贡献是真实且未受到损害的,从而在不损害计算效率或模型性能的情况下增强了系统的弹性。对基准数据集,MNIST和CIFAR-10的经验评估证明了我们的框架的有效性,在完整性验证和身份验证方面达到了100%的成功率,以及针对对抗性攻击的明显韧性。这些结果验证了提议的安全性增强和开放途径,以提供更安全,可靠和意识的分布式机器学习解决方案。我们的工作弥合了网络安全与分布式机器学习之间的关键差距,为Secure FL中的未来进步奠定了基础。索引术语 - 填充学习,网络安全,控制流证明,数字签名,哈希
联合学习(FL)代表在现实情况下对多个客户启用分布式学习的事实上的标准范式。尽管在准确性和隐私意识方面取得了长足的进步,但在现实世界中,尤其是在工业部署环境中,FL的真正采用仍然是一个开放的线程。这主要是由于隐私限制以及在带宽,计算和能量受限的节点上采用AI技术时调节的额外复杂性。受这些问题的启发,我们专注于参与客户的特征,其特征是高度异构的计算功能和能源预算提出ENEA-FL,ENEA-FL是无服务器智能能源管理的创新计划。这种新颖的方法动态适应以优化训练过程,同时促进物联网(IoT)设备和边缘节点之间的无缝互动。,提出的中间件提供了一个容器化的软件模块,该模块有效地管理每个工人节点与中央聚合器的相互作用。通过监视当地能源预算,计算能力和目标准确性,ENEA智能地做出了有关在随后的训练回合中包含特定节点的明智决定,从而有效地平衡了能耗,训练时间和最终准确性之间的三方权衡。最后,在各种情况的一系列广泛的实验中,我们的解决方案表现出令人印象深刻的结果,对文献中可用的流行客户选择方法的能源消耗降低了30%至60%,而其效率是标准FL解决方案的3.5倍。
摘要:联合学习是一种在医学领域中用于解决集中化,隐私和机密性等问题的创新方法。它收集了来自几个本地模型的多种数据,并在仅共享结果而不是数据的全球模型中汇总了它。它是一种协作模型培训方法,可实现最佳性能。我们为糖尿病患者预测建立了框架工作,该框架由人工神经网络(ANN),经常性神经网络(RNN)和长期短期内存(LSTM)网络组成。这些模型对分布在多家医院的本地数据进行独立培训,以确保隐私和数据安全。为了改善数据集和地址类不平衡,使用了探索数据分析(EDA)技术和合成少数民族过度采样技术(SMOTE)。EDA有助于理解数据的基本模式和特征,而Smote会生成合成数据点以平衡类。和在全球模型中,我们汇总了所有本地模型权重,并根据其预测精度检查现有本地模型之间的最佳模型。在我们的框架工作中,ANN的精度为89%。因此,考虑这些值进行预测。在训练不同的模型后,我们通过RNN获得了89.00%的精度,ANN的精度为89.99%,精度为89.08%。使用LSTM模型。因此,我们继续使用ANN模型来预测糖尿病。成功提交所有权重后,我们通过全球模型中的最佳性能策略获得了这些精度水平。这种方法可确保绩效最高的模型用于鉴定,从而在协作医疗保健环境中增强糖尿病患者鉴定系统的整体有效性和实际性。
联邦学习使保护隐私的人工智能成为可能。为了开发基于人工智能 (AI) 的系统,通常需要大量数据。在经典的 AI 项目中,所有可用数据都会被发送到云端,然后从数据中生成 AI 模型。然而,这种解决方案已不再适用,因为数据的中央存储侵犯了数据发起者的隐私,使数据容易被操纵,并且忽略了现在也可以在智能手机等嵌入式设备上创建 AI 模型的事实。联邦学习描述了分布式创建全局 AI 模型的概念。联邦学习的一个核心组成部分是,收集数据的地方也用于改进全局 AI 模型的副本。然后,这些单独的 AI 模型被组合成一个全局 AI 模型,并提供给所有数据发起者。联邦学习的优势:1. 数据发起者的隐私仍然受到保护。 2. 竞争对手无需交换数据即可相互合作。
分布式系统不从客户端设备反馈数据或结果,因此无法提供包括统计数据、分析和见解在内的中央概览。因此,训练模型容易产生偏差,系统准确性会显著降低。集中式系统具有中央概览的优势,但联合系统也能够提供类似的好处,而无需通过网络传输过多的数据。考虑到只有估计 1% 的监控数据可用于获得业务见解,联合方法有助于防止将数 TB 的无关数据传输到云或数据中心,并仅发送相关的可操作数据。3