您的重症监护病房 (ICU) 刚刚收治了两名患有 2019 年冠状病毒病 (COVID- 19) 的患者,两人都需要插管。您只有资源为其中一名患者提供机械通气。在您看来,两人的病情同样严重,都需要试用机械通气。您的医院使用人工智能 (AI) 为稀缺资源的分配提出建议,以减少主观性并将治疗医生从分诊决策中剔除。该算法在没有显示数据或决策背后的原因的情况下,建议为其中一名患者(白人)而不是另一名患者(黑人)提供机械通气。您想知道算法为什么会做出这样的建议,以及它在道德上是否“正确”。随着人工智能应用成为临床实践的常规部分,重症监护临床医生将需要了解医疗保健人工智能所带来的道德和责任。在这篇简短的论文中,我们概述了每位临床医生都应该知道的五件事,以告知在重症监护中合乎道德地使用人工智能技术(摘要见图 1)。我们重点介绍了临床医生必须了解的问题,以便更广泛地参与有关人工智能使用的伦理审议。寻求更多信息和原则主义方法来解决医疗保健领域人工智能问题的读者最好阅读本系列关于人工智能的其他文章,或查阅其他权威出版物 [ 1 , 2 ]。首先,临床医生应该对人工智能背后的技术有基本的了解,因为他们最终仍将在伦理和法律上对治疗决策负责。作为一种通用技术,人工智能是指