在联邦学习的背景下算法保护

务实地研究了保护算法和模型,这些算法和模型部署到了医疗保健中的现实世界联合分析和学习设置中。在联合学习的背景下,算法保护首先出现在数据科学方面。

来源:走向数据科学

在一家生物技术公司工作时,我们旨在推进ML&AI算法,例如,可以在患者数据居住的医院/诊所位置执行大脑病变细分,以便以安全的方式对其进行处理。从本质上讲,这是通过联合学习机制来保证的,这是我们在许多现实的医院环境中采用的。但是,当已经将算法视为公司资产时,我们还需要意味着不仅保护敏感数据,而且还需要在异质联合环境中保护算法。

算法
图1高级工作流和攻击表面。作者的图像 大多数算法被认为被封装在兼容Docker兼容的容器中,从而使它们可以独立使用不同的库和运行时间。假定有一个第三方IT管理员,他们将旨在保护患者的数据并锁定部署环境,从而使其无法访问算法提供商。该观点描述了旨在包装和保护容器化工作负载的不同机制,以防止本地系统管理员盗窃知识产权。 为了确保一种全面的方法,我们将解决三个关键层的保护措施: 算法代码保护:确保算法代码,防止未经授权的访问或反向工程的措施。阶段环境:评估管理员在容器化系统中访问机密数据的风险。部门环境:基础架构安全措施免受未经授权的系统管理员访问权限。 算法代码保护:确保算法代码的措施,防止未经授权的访问或反向工程。 算法代码保护: 运行时环境:评估管理员在容器化系统中访问机密数据的风险。 运行时环境: 部署环境:针对未经授权的系统管理员访问的基础架构保障。 部署环境: 方法论 定性评估

图1高级工作流和攻击表面。作者的图像

大多数算法被认为被封装在兼容Docker兼容的容器中,从而使它们可以独立使用不同的库和运行时间。假定有一个第三方IT管理员,他们将旨在保护患者的数据并锁定部署环境,从而使其无法访问算法提供商。该观点描述了旨在包装和保护容器化工作负载的不同机制,以防止本地系统管理员盗窃知识产权。

    为了确保一种全面的方法,我们将解决三个关键层的保护措施:
  • 算法代码保护:确保算法代码,防止未经授权的访问或反向工程的措施。阶段环境:评估管理员在容器化系统中访问机密数据的风险。部门环境:基础架构安全措施免受未经授权的系统管理员访问权限。
  • 算法代码保护:确保算法代码的措施,防止未经授权的访问或反向工程。
  • 算法代码保护:
  • 运行时环境:评估管理员在容器化系统中访问机密数据的风险。
  • 运行时环境:
  • 部署环境:针对未经授权的系统管理员访问的基础架构保障。

    部署环境:

    方法论定性评估