详细内容或原文请订阅后点击阅览
这是无法手术的癌症。人工智能应该决定接下来会发生什么吗?
大型语言模型的出现引发了关于如何在患者护理中扩大技术使用范围以及它会带来什么的讨论意味着成为人类
来源:哈佛大学报AI 已在诊所中用于帮助分析影像数据,例如 X 光片和扫描。但最近出现的复杂大型语言 AI 模型迫使人们考虑将该技术的使用范围扩大到患者护理的其他领域。在与 Gazette 的对话中,哈佛医学院生物伦理中心主任 Rebecca Weintraub Brendel 探讨了临终选择,并强调了记住“我们可以做,并不意味着我们应该做”的重要性。
迫使人们考虑 Rebecca Weintraub Brendel 哈佛医学院 生物伦理中心当我们谈论人工智能和临终决策时,有哪些重要问题需要考虑?
当我们谈论人工智能和临终决策时,有哪些重要问题需要考虑?临终决策与其他决策相同,因为最终,我们会做患者希望我们做的事情,前提是他们有能力做出这些决定,并且他们想要的东西有医学指征——或者至少没有医学禁忌症。
一个复杂因素是,如果患者病情严重,无法告诉我们他们想要什么。第二个挑战是从认知和情感两个方面理解这个决定意味着什么。
人们有时会说,“我永远不想那样生活”,但他们不会在所有情况下都做出相同的决定。长期患有 ALS 等渐进性神经系统疾病的患者通常知道他们何时已经到达极限。他们不会感到沮丧或害怕,并准备好做出决定。
另一方面,抑郁症在某些癌症中相当普遍,一旦症状得到治疗,人们往往会改变想要结束生命的想法。
那么,如果一个人年轻时说:“如果我失去了双腿,我就不想活了”,我们是否应该在生命结束时允许改变观点?
,这些对话正在进行中吗?