各种形式的人工智能 (AI) 已经被部署到临床环境中,对其未来医疗用途的研究也在加速进行。尽管呈现出这样的发展趋势,但仍需要更多研究来了解日益增多的 AI 决策对患者的影响。特别是,AI 的非个人性质意味着,将其部署在高度敏感的使用环境(例如医疗保健领域)会引发与患者对(不)有尊严的治疗的看法相关的问题。我们通过一项实验性小插图研究来探讨这个问题,该研究比较了个人在各种医疗决策环境中对受到有尊严和尊重的对待的看法。参与者接受 2(人类或 AI 决策者)x 2(积极或消极的决策结果)x 2(诊断或资源分配医疗保健场景)的析因设计。我们发现了“人类偏见”(即偏好人类而不是 AI 决策者)和“结果偏见”(即偏好积极结果而不是消极结果)的证据。然而,我们发现,对于尊重和有尊严的人际待遇的看法,诊断案例中谁做出决定更重要,资源分配案例的结果也更重要。我们还发现,人们始终将人类视为合适的决策者,而人工智能则被视为非人性化的决策者,并且参与者认为他们在接受诊断决策时比在接受资源分配决策时受到更好的待遇。开放式文本响应的主题编码支持了这些结果。我们还概述了这些发现的理论和实践意义。
主要关键词