详细内容或原文请订阅后点击阅览
在联邦学习的背景下算法保护
务实地研究了保护算法和模型,这些算法和模型部署到了医疗保健中的现实世界联合分析和学习设置中。在联合学习的背景下,算法保护首先出现在数据科学方面。
来源:走向数据科学在一家生物技术公司工作时,我们旨在推进ML&AI算法,例如,可以在患者数据居住的医院/诊所位置执行大脑病变细分,以便以安全的方式对其进行处理。从本质上讲,这是通过联合学习机制来保证的,这是我们在许多现实的医院环境中采用的。但是,当已经将算法视为公司资产时,我们还需要意味着不仅保护敏感数据,而且还需要在异质联合环境中保护算法。
算法图1高级工作流和攻击表面。作者的图像
大多数算法被认为被封装在兼容Docker兼容的容器中,从而使它们可以独立使用不同的库和运行时间。假定有一个第三方IT管理员,他们将旨在保护患者的数据并锁定部署环境,从而使其无法访问算法提供商。该观点描述了旨在包装和保护容器化工作负载的不同机制,以防止本地系统管理员盗窃知识产权。
- 为了确保一种全面的方法,我们将解决三个关键层的保护措施: