反击联邦学习中的攻击

多节点模拟器中的课程首先出现在数据科学上。

来源:走向数据科学

联合学习(FL)是我们训练AI模型。 FL没有将所有敏感数据发送到中心位置,而是将数据保留在其位置,并且仅共享模型更新。这可以保留隐私,并使AI能够更接近生成数据的位置。

联邦学习

但是,随着计算和数据分布在许多设备上,出现了新的安全挑战。攻击者可以加入训练过程并巧妙地影响它,从而导致精度下降,偏见的输出或模型中隐藏的后门。

但是,随着计算和数据分布在许多设备上,出现了新的安全挑战。

在这个项目中,我们着手研究如何在FL中检测和减轻此类攻击。为此,我们构建了一个多节点模拟器,使研究人员和行业专业人员能够更有效地再现攻击和测试防御能力。

为什么这很重要

    一个非技术示例:想想一本来自许多餐馆的厨师贡献的共享食谱书。每个厨师都会通过自己的改进来更新一些食谱。不诚实的厨师可以故意添加错误的成分来破坏盘子,或者悄悄地插入一种特殊的风味,只有他们知道如何修复。如果没有人仔细检查食谱,那么所有餐馆中的所有未来食客都可能最终都会出现破坏或操纵的餐点。一个技术示例:同一概念在FL中显示为数据中毒(操纵培训示例)和模型中毒(改变重量更新)。当联邦具有非IID数据分布,不平衡数据分区或较晚加入客户时,这些攻击尤其有害。在某些情况下,诸如多克鲁姆,修剪均值和分裂和征服之类的当代防御能力仍然会失败。
一个非技术示例: 技术示例: 多krum 修剪平均值 分割和征服

构建多节点FL攻击模拟器

比例安装系统FedN框架

关键功能:

  • 灵活的部署:使用Kubernetes,Helm和Docker运行分布式FL作业。
  • 灵活部署: 粗体。