©2022。此手稿版本可在CC-by-NC-ND 4.0许可下提供https://creativecommons.org/licenses/by-nc-nc-nd/4.0/
1 伦敦帝国理工学院全球健康创新研究所,伦敦,英国,2 哈佛大学陈曾熙公共卫生学院生物统计学系,美国马萨诸塞州剑桥,3 盖伊和圣托马斯医院 NHS 基金会信托临床科学计算系,伦敦,英国,4 盖伊和圣托马斯医院 NHS 基金会信托重症监护系,伦敦,英国,5 澳大利亚和新西兰重症监护协会成果和资源评估中心,坎伯韦尔,澳大利亚,6 国王学院医院 NHS 基金会信托神经内科,伦敦,英国,7 伦敦医学成像和人工智能中心,盖伊和圣托马斯医院,伦敦,英国,8 麻省理工学院医学工程与科学研究所,美国马萨诸塞州剑桥,9 贝斯以色列女执事医疗中心肺部、重症监护和睡眠医学科,美国马萨诸塞州波士顿
背景:鉴于基于人工智能 (AI) 的决策支持系统在医疗保健领域创造的机遇,至关重要的问题是临床医生是否愿意将这项技术作为临床工作流程的一个组成部分。目的:本研究利用经过验证的问题制定在线调查,从而探索影响临床医生使用基于人工智能的血液利用率计算器 (BUC) 意愿的认知人为因素,BUC 是嵌入在电子健康记录中的人工智能系统,可提供数据驱动的个性化建议,以确定为特定患者输血的浓缩红细胞数量。方法:使用有目的的抽样策略,专门包括威斯康星州一所大学医院的临床医生 BUC 用户。我们招募了 119 名完成整个调查的 BUC 用户。我们利用结构方程模型来捕捉“人工智能感知”和“期望”对临床医生使用该技术意愿的直接和间接影响,当受“感知风险”介导时。结果:研究结果表明,人工智能感知对 BUC 风险的直接影响呈显著负相关 (ß = − 0.23, p < 0.001)。同样,期望对风险有显著的负面影响 (ß = − 0.49, p < 0.001)。我们还注意到风险对使用 BUC 的意图有显著的负面影响 (ß = − 0.34, p < 0.001)。关于期望对使用 BUC 意图的间接影响,研究结果显示风险介导的显著正影响 (ß = 0.17, p = 0.004)。研究指出,当由风险介导时,人工智能感知对使用 BUC 的意图有显著的正间接影响 (ß = 0.08, p = 0.027)。总体而言,本研究展示了期望、感知风险和对 AI 的认知对临床医生使用 BUC(一种 AI 系统)意愿的影响。AI 开发人员需要强调 AI 技术的优势,确保易用性(努力预期),阐明系统的潜力(性能预期),并通过改进整体设计将风险认知降至最低。结论:确定决定临床医生使用基于 AI 的决策支持系统意愿的因素有助于改善医疗领域的技术采用和使用。增强和安全地采用 AI 可以提升整体护理流程,并有助于标准化临床决策和程序。医疗保健领域改进的 AI 采用将帮助临床医生分担日常临床工作量并做出关键决策。
背景:在 DESIRE 研究中(使用人工智能预测术后出院),我们之前已经在 1,677 名胃肠道和肿瘤外科患者中开发并验证了一种机器学习概念,该概念可以预测术后第二天后的安全出院。尽管模型在学术外科人群中表现出色(受试者工作特征曲线下面积为 0.88),但这些发现是否可以推广到其他医院和外科人群仍不得而知。因此,我们旨在确定之前开发的机器学习概念的普遍性。方法:我们在 2017 年 1 月至 2021 年 6 月期间入住荷兰 3 家非学术医院的胃肠道和肿瘤外科患者中对机器学习概念进行了外部验证,这些患者在手术后 2 天内仍住院。主要结果是预测术后第二天医院干预的能力,这些干预被定义为计划外的再次手术、放射学干预和/或静脉注射抗生素。对四个森林模型进行了本地训练,并根据受试者工作特征曲线下面积、敏感性、特异性、阳性预测值和阴性预测值进行了评估。结果:所有模型都对 1,693 例病例进行了训练,其中 731 例(29.9%)需要医院干预,并表现出良好的性能(受试者工作特征曲线下面积仅变化 4%)。最佳模型实现了 0.83 的受试者工作特征曲线下面积(95% 置信区间 [0.81 e 0.85])、敏感度为 77.9%(0.67 e 0.87)、特异度为 79.2%(0.72 e 0.85)、阳性预测值为 61.6%(0.54 e 0.69),阴性预测值为 89.3%(0.85 e 0.93)。结论:这项研究表明,先前开发的机器学习概念可以通过对本地患者数据进行模型训练来预测不同外科人群和医院环境(学术与非学术)中的安全出院。鉴于其高准确性,将机器学习概念整合到临床工作流程中可以加快外科出院速度,并通过减少可避免的住院天数来帮助医院应对容量挑战。© 2022 作者。由 Elsevier Inc. 出版。这是一篇根据 CC BY 许可 ( http://creativecommons.org/licenses/by/4.0/ ) 开放获取的文章。
Kan Lee, 1,* Substantial Dimitted, 1,2, 5 Christopher deFilippi, 8 Stephen Selier, 9 Gordon Moe, 10 18 Anton Has a Meiracker, 19 Luna Gargani, Guide Grassi, 29 Nazerian Peim, 30 Giovanni Albano, 30 Philip Bahrmann, 31 David In Newby, 1 Alan G Japp, 1 Athanasius Tsanas, 2 Anoop S V Shah,1,32 A Mark Richards,Januzzi,14,15
展望未来,在财政紧张的环境下为作战人员提供适当级别的支持。整合来自每个职能部门的信息,同时提供对任务资金影响的优质建议。与合作伙伴协作,实现更高效的成本估算。
越来越多的基于人工智能(AI)的临床决策支持系统在临床前,硅,评估中表现出了有希望的表现,但很少有人能显示出对患者护理的真正好处。早期临床评估对于评估AI系统在小规模上的实际临床表现,确保其安全性,评估其使用围绕其使用的人为因素以及为进一步的大规模试验铺平道路很重要。但是,这些早期研究的报告仍然不足。本声明为人工智能驱动的决策支持系统的发展和探索性临床调查提供了基于共识的报告指南(decution-ai)。我们进行了两轮修改的Delphi过程,以收集和分析有关AI系统早期临床评估报告的专家意见。专家是从20个预定义的利益相关者
摘要。在本文中,我们考虑了人工智能应具备的一些关键特征,以使包括主题专家及其人工智能决策辅助工具在内的混合机构能够发挥作用。我们将暗示保证人工智能工具具有以下设计要求:开放、多元、连续、谨慎、模糊、类比,最重要的是,在决策实践方面具有附属性。我们认为,附属性是设计的一个重要条件。附属性需要设计和评估人机交互协议,旨在提高人工智能的可用性,同时也要保证用户满意度以及人类和社会的可持续性。它通过增强人们与输出进行分析交互的认知动机、减少对人工智能的过度依赖和提高绩效来实现这一点。
简介:人工智能 (AI) 在医疗保健领域的应用,其最新进展有望解决许多现有的全球问题,促进人类健康和应对全球健康挑战。这篇全面的评论不仅旨在揭示潜在的伦理和法律问题,而且还揭示社会影响 (ELSI),这些影响在最近的评论中被忽视,但在开发阶段值得同等重视,当然在医疗保健实施之前更是如此。它旨在指导各种利益相关者(例如设计师、工程师、临床医生)在设计阶段使用设计伦理 (EbD) 方法解决人工智能的 ELSI。方法:作者遵循系统化的范围界定方法,并在以下数据库中搜索:Pubmed、Web of science、Ovid、Scopus、IEEE Xplore、EBSCO Search(Academic Search Premier、CINAHL、PSY CINFO、APA PsycArticles、ERIC)以查找截至 2021 年 1 月医疗保健领域 AI 的 ELSI。数据被绘制并综合起来,作者对收集的数据进行了描述性和主题分析。结果:在审查了 1108 篇论文后,最终分析中纳入了 94 篇。我们的结果表明,学术界对 AI 领域的 ELSI 的兴趣日益浓厚。我们在分析中发现的主要问题分为四个主要影响集群:AI 算法、医生、患者和医疗保健总体。最普遍的问题是患者安全、算法透明度、缺乏适当的监管、责任和问责制、对医患关系的影响以及人工智能医疗保健的治理。结论:我们的审查结果证实了人工智能显着改善患者护理的潜力,但其实施的缺点与尚未解决的复杂 ELSI 有关。大多数 ELSI 都提到了对互惠和信托医患关系的影响和延伸。随着基于人工智能的决策工具的整合,双边医患关系可能会转变为三边关系。
AI 表示人工智能。在面板 A 中,每个点和方块代表单个人在接受标准护理诊断或 AI 辅助筛查后产生的终生费用(巴西雷亚尔,R$)。在面板 B 中,根据研究假设,AI 在支付意愿较低的情况下更有可能降低成本效益,尽管这种确定性对额外质量调整生命年 (QALY) 的支付意愿 (WTP) 很敏感。