摘要:随着新出现的AI能力增加在医疗保健领域中,侵犯用户隐私的潜力,道德问题和最终对用户的危害是威胁到这些能力成功且安全采用这些能力的最重要的关注点。由于这些风险 - 滥用这些高度敏感的数据,不适当的用户概况,缺乏足够的同意和用户不认识都是所有因素必须牢记以实现“在建立这些功能”时实现“逐个设计”,以实现医疗目的。本文旨在查看该领域最高的隐私和道德问题,并提供建议以减轻其中一些风险。我们还提出了差异隐私的技术实施,以证明将噪声添加到健康数据中如何显着改善其隐私,同时保留其效用。
技术与隐私之间存在着复杂的联系,这已成为一个迫切的问题。批判理论,特别是那些分析权力、监视和控制的理论,为理解人工智能如何影响个人隐私提供了一个宝贵的框架。人工智能技术,特别是那些基于数据收集的技术,正在延续这些动态。例如,算法可以分析大量的个人数据,从而根据人们的行为、决定、偏好和弱点对其进行监视,而无需物理侵入他人的私人领域。这可能会导致观察者目光的内化。这种内化可能导致自我审查和顺从,因为个人会在假设自己被监视的情况下改变自己的行为;历史上有许多这样的自我审查的例子,这引出了一个重要的问题:个人如何才能真正体验他们的创造力?
一家公共部门机构建立了一个人工智能驱动的福利欺诈检测系统,但该系统得出的结果不准确、随机且不公平。模型设计和实施的根本缺陷之一是需要侵入性、不相关、平庸和主观的输入。例如,它使用关系状态、持续时间和频率来为某些申请人附加高风险分数,但不为其他申请人附加。该模型还在不同输入之间建立了不合理的相关性,从而破坏了决策的一致性。最后,决策过程缺乏功能性上诉流程(一项关键的安全功能)。因此,该算法在没有任何证据或令人信服的理由的情况下,不成比例地为最需要福利的人分配了高欺诈风险分数。被标记的合格申请人受到了侵入性和污名化的调查。他们在获得急需的福利时遭遇了不必要的延误。