人脸在人类社会生活中扮演着不可或缺的角色。目前,计算机视觉人工智能(AI)可以捕捉和解释人脸,用于各种数字应用和服务。面部信息的模糊性最近导致不同领域的学者就AI应该根据面部外观对人做出哪些类型的推断展开争论。人工智能研究通常通过参考人们在初次见面场景中如何形成印象来证明面部人工智能推理的合理性。批评者对偏见和歧视表示担忧,并警告说面部分析人工智能类似于面相学的自动化版本。然而,这场辩论缺少的是对人工智能“非专家”如何从道德上评估面部人工智能推理的理解。在一项包含 24 个治疗组的双场景小插图研究中,我们表明非专家 (N = 3745) 在低风险广告和高风险招聘环境中拒绝面部 AI 推断,例如肖像图像中的可信度和可爱度。相反,非专家同意广告中的面部 AI 推断,例如肤色或性别,但不同意招聘决策环境中的推断。对于每个 AI 推断,我们要求非专家以书面答复的形式证明他们的评估。通过分析 29,760 份书面辩解,我们发现非专家要么是“证据主义者”,要么是“实用主义者”:他们根据面部是否需要为推理提供充分或不充分的证据(证据主义辩解)或推理是否会导致有益或有害的结果(实用主义辩解)来评估面部 AI 推理的道德地位。非专家的辩解强调了面部 AI 推理背后的规范复杂性。证据不足的 AI 推理可以通过考虑相关性来合理化,而无关的推理可以通过参考充分证据来合理化。我们认为,参与式方法为日益可视化的数据文化中道德 AI 的发展提供了宝贵的见解。
主要关键词