尽管人工智能 (AI) 和自动决策在医疗服务和医学研究中的应用前景光明,但仍面临着一些法律和道德障碍。欧盟 (EU) 正在利用现有法律框架解决这些问题,并起草新的法规,例如拟议的《人工智能法案》。欧盟《通用数据保护条例》 (GDPR) 部分规范了人工智能系统,制定了处理个人数据和保护数据主体免受纯自动化决策影响的规则。在医疗服务中,(自动化)决策更频繁、更迅速。然而,医学研究注重创新和效率,对个人的直接决策较少。因此,GDPR 对纯自动化决策的限制主要适用于医疗服务,患者和研究参与者的权利可能存在显著差异。拟议的《人工智能法案》基于道德人工智能原则,为人工智能系统引入了一种基于风险的方法。我们分析了 GDPR 和人工智能法案之间的复杂联系,强调了主要问题,并找到了协调数据保护原则和道德人工智能的方法。拟议的《人工智能法案》可能在医疗服务和医学研究领域对《GDPR》起到补充作用。尽管《人工智能法案》可能还需要几年才能生效,但其许多目标将在此之前实现。
根据 GDPR 第 9 条第 1 款,对特殊类别的个人数据(例如健康数据、生物特征数据)有更严格的要求,且不适用利益平衡。由于不能排除在 AI 训练中使用此类敏感数据,因此将公开数据用于 AI 训练和开发是否符合数据保护规定值得怀疑。将这些数据视为不受欢迎的“副产品”的说法是站不住脚的。通过 GDPR 第 9 条第 2 款 e 项(“数据主体已明显公开的个人数据”)进行的授权也存在问题,因为仅仅将这些数据存在于公共领域是不够的。其他论点,例如 GDPR 第 9 条第 2 款 j 项与德国联邦数据保护法第 27 条(将数据用于科学研究或统计目的)相结合,尚未经过充分检验,存在风险。
无论使用哪种欺诈检测算法,它们都越来越受欢迎,因为它们能够利用大量个人数据、进行自动决策和创建配置文件。此类活动可提供竞争优势并影响商业活动。但是,根据 GDPR 第 22 条和第 35 条 [16],这些类型的处理活动需要额外的安全措施来保护 PII。由于不仅已识别人员的数据,而且可识别人员的数据都会受到影响,因此 GDPR 对此类活动提出了严格的要求。例如,在欺诈检测技术的设计和开发过程中,根据 GDPR 第 25 条 [16],设计和默认的数据保护要求企业以这样的方式设计解决方案,即在处理过程中的任何时间点,个人数据流都受到技术和组织措施 (TOM) 的保护,如表 1 所示。云解决方案的集成 - 无论是内部还是外部开发和/或托管 - 都必须额外保护静态和转换中的数据。
