数据科学为各个学科的从业者解锁了强大的工具。正如这些工具可以帮助善意的行为者完成有价值的工作(如果没有这些工具,这些工作就不可能或不切实际)一样,它们也可以帮助粗心或不诚实的行为者造成新形式的伤害。这种伤害可以从侵犯隐私到公开歧视,其影响往往与评估人员感兴趣的下游结果交织在一起。在一个令人震惊的例子中,密歇根州的一名黑人男子因面部识别错误而被错误逮捕,并被关押了 30 个小时才获释。正如我们将要探讨的,评估人员的干预可能会避免这个令人不安的结果。在数据科学的背景下,有几个因素使道德和公平变得重要。首先,许多数据科学工具的运作范围比传统替代方案更广,而人为监督范围更窄。扩大影响范围可能会加剧有问题的做法的后果,而减少监督可能会限制专家发现和纠正问题的能力。其次,一些从业者认为数据科学工具会自动关注道德和公平,或者使用机器智能会使道德和公平变得过时。正如我们所探索的,这两种假设都不是可靠的;大量文献表明,数据科学可以放大人类的缺陷并引入自身的问题(Mehrabi 等人,2021 年)。最后,数据科学工具使问责问题变得复杂:当数据和算法导致违反道德或公平时,它们无法像个人和组织那样进行赔偿或参与司法系统。这些因素共同导致了对数据科学工具评估和监测的迫切需求,重点是道德和公平。这种需求并没有被忽视。自 2018 年以来,欧盟委员会发布了人工智能道德使用指南(人工智能高级专家组,2018 年;提案,2021 年)。联合国教科文组织和经合组织也发布了自己的建议(联合国教科文组织,2021 年;经合组织法律文书,2019 年)。此外,一旦发现违反道德和公平的行为,会引起媒体的关注。尽管数据科学的成熟速度比管理机构的反应速度要快,但趋势表明社会正在发生转变
主要关键词