摘要 — 基于人工智能的应用越来越多地部署在生活的各个领域,包括智能家居、智能城市、医疗保健服务和自主系统,在这些系统中,个人数据从异构来源收集,并使用不透明的集中式服务器中的“黑盒”算法进行处理。因此,保护这些应用程序的数据隐私和安全至关重要。在这方面,用于识别潜在数据隐私威胁并指定对策以减轻此类基于人工智能的系统中相关漏洞的建模技术在保护和保护个人数据方面发挥着重要作用。已经提出了各种威胁建模技术,例如 STRIDE、LINDDUN 和 PASTA,但它们都不足以对自主系统中的数据隐私威胁进行建模。此外,它们并非旨在对欧盟/英国通用数据保护条例 (GDPR) 等数据保护立法的合规性进行建模,这对于保护数据所有者的隐私以及防止个人数据受到潜在的隐私相关攻击至关重要。在本文中,我们调查了现有的针对自主系统中数据隐私威胁的威胁建模技术,然后从 GDPR 合规性的角度分析了这些技术。分析之后,我们在自动驾驶汽车(自动驾驶系统的一个特定用例)中采用了 STRIDE 和 LINDDUN,以仔细研究现有技术在建模数据隐私威胁时面临的挑战和差距。还介绍了改进自动驾驶系统数据隐私威胁和 GDPR 合规建模技术的未来研究方向。
主要关键词