我们的标题暗示了《圣诞颂歌》中埃比尼泽·斯克鲁奇遇到的三个圣诞幽灵,他们引导埃比尼泽经历圣诞节假期活动的过去、现在和未来。同样,我们的文章将带领读者回顾医疗 AI 的过去、现在和未来。在此过程中,我们关注现代机器学习的关键:对强大但本质上不透明的模型的依赖。当应用于医疗保健领域时,这些模型无法满足临床医生和患者最终用户所要求的透明度需求。我们回顾了这种失败的含义,并认为不透明的模型 (1) 缺乏质量保证,(2) 无法赢得信任,以及 (3) 限制医患对话。然后,我们讨论如何在模型设计和模型验证的各个方面保持透明度有助于确保医疗 AI 的可靠性。
有多种方法可将尿液药物筛查纳入疼痛管理和药物滥用治疗环境。最常见的情况是,患者在开始治疗之前接受尿液药物筛查,以核实当前的药物使用情况。一些临床医生认为,尿液药物筛查应常规用于建立药物滥用的基线信息,但最佳检测频率和间隔仍不确定。通用的筛查方法可能会发现更多不恰当的使用,并可能减少患者因缺乏信任而对正在进行检测的感觉。然而,常规的普遍筛查可能会给医疗保健系统和医患关系带来不必要的负担。另一种方法是对被判定为药物滥用风险较高的患者进行选择性检测。
可信度是医学的核心原则。医患关系正在从二元关系演变为更广泛的医疗保健生态系统。随着人工智能 (AI) 在医学领域的出现,必须重新审视信任的要素。我们设想了在核医学领域建立可信 AI 生态系统的路线图。在本报告中,AI 被置于技术革命的历史背景中。讨论了与诊断、治疗和工作流程效率相关的核医学 AI 应用机会,以及新出现的挑战和关键责任。建立和保持 AI 领域的领导地位需要齐心协力,通过让患者、核医学医生、科学家、技术人员、转诊提供者以及其他利益相关者参与进来,促进这项创新技术的合理和安全部署,同时保护我们的患者和社会。该战略计划由核医学和分子成像学会 (SNMMI) 的 AI 工作组制定。
作者讨论了人工智能(AI)在各个领域,特别是在健康领域日益增长的影响力,以及在其变得至关重要之前从伦理和生物伦理角度解决其影响的紧迫性。它还探讨了如何将人类尊严(天主教生物伦理学和世界人权宣言的核心原则)作为人工智能监管的基石。人工智能在医疗保健领域的应用引发了道德挑战,例如数据偏见和不公正风险。强调需要开发一种促进透明度、责任感和尊重人类尊严的“算法学”或算法伦理。此外,它还强调了人工智能对医患关系、医疗行业实践和治疗决策的影响,并指出人工智能不应取代人类的判断。最后,强调需要对医生和卫生专业人员进行人工智能的道德使用培训,将生物伦理原则融入他们的培训中,以确保技术服务于共同利益而不损害人类尊严。
临床文档。生成式人工智能可以满足与临床文档相关的一系列需求。如今,模型可以使用医患互动的记录以指定的格式起草临床记录。研究人员还在开发可以汇编和验证电子健康记录中的信息以获得保险预授权的模型。这些工具可能有助于减轻医务人员的行政负担和倦怠。 临床试验。一些公司提供基于过去临床试验和观察性研究数据创建患者数字表示的模型。生成式人工智能模型可以预测如果参与者没有接受正在测试的治疗,他们的健康状况在试验期间可能会如何发展。这样的预测可能会对小型试验的结果提供更大的信心。 医学成像。研究人员正在开发生成式人工智能模型来提高医学图像(如 MRI 扫描)的质量。可以训练模型识别噪声(亮度或颜色的随机变化)并生成清晰的图像,从而有可能提高诊断准确性。
o 如果患者接种了 PCV20(Prevnar-20),则无需再接种 o 如果患者接种了 PCV13(Prevnar-13),则接种一剂 PPSV23(Pneumovax) 程序:应在出院前一天、脾切除术后 14 天或 ICU 护理最后一天(转院/逐步转移之前)接种疫苗 - 以先到者为准。1,2 应更新所有患者 epic 中的问题列表,以反映此状态,并添加无脾诊断。 教育:需要通过医患讨论告知所有接受脾切除术的患者有关手术的信息、发生严重脾切除术后感染 (OPSI) 的风险和体征/症状。 建议在 5 年后以及患者年满 65 岁时重新接种 Pneumovax(如果在 65 岁之前接种)6。 此后每 5 年需要重新接种 MenACWY。应指导患者与其初级保健医生进行后续评估。5 应填写一张信息卡,注明疫苗接种日期,并将其交给患者。
摘要:人工智能 (AI) 系统在生物医学和临床环境中的使用可能会破坏传统的医患关系,这种关系基于医疗建议和治疗决策中的信任和透明度。当诊断或治疗选择不再仅由医生做出,而在很大程度上由使用算法的机器做出时,决策就会变得不透明。技能学习是机器学习算法在临床决策中最常见的应用。这些是一类非常通用的算法(人工神经网络、分类器等),它们根据示例进行调整,以优化对新的、未见过的病例的分类。要求对决定进行解释是没有意义的。统计学或计算机科学专家可能能够详细了解 AI 算法的数学细节。然而,当涉及到人类的命运时,这种“开发者的解释”是不够的。作为解决这一问题的可解释人工智能(XAI)的概念正在吸引越来越多的科学和监管兴趣。本评论重点关注 XAI 必须能够向该领域的专家详细解释人工智能做出的决定这一要求。
人工智能 (AI) 与医疗保健通信的整合发展迅速,这得益于大型语言模型 (LLM)(例如聊天生成预训练转换器 (ChatGPT))的进步。本文献综述探讨了人工智能在医患互动中的作用,特别关注其通过弥合语言障碍、总结复杂的医疗数据和提供富有同理心的回应来增强沟通的能力。人工智能的优势在于它能够提供易于理解、简洁且医学上准确的信息。研究表明,人工智能在某些沟通方面(例如同理心和清晰度)可以胜过人类医生,而 ChatGPT 和医学路径语言模型 (Med-PaLM) 等模型在这些领域表现出很高的有效性。然而,仍然存在重大挑战,包括偶尔出现的不准确和“幻觉”,即人工智能生成的内容不相关或医学上不准确。这些限制凸显了人工智能算法需要不断改进,以确保敏感医疗环境中的可靠性和一致性。该评论强调了人工智能作为健康传播变革工具的潜力,同时倡导进一步研究和政策制定,以降低风险并加强人工智能与临床实践的整合。
在过去的 20 年里,肝病学领域在诊断工具、预后模型和治疗方案方面取得了重大发展,使其成为最复杂的医学专科之一。通过人工智能 (AI) 和机器学习,计算机现在能够从复杂多样的临床数据集中学习,以解决现实世界的医疗问题,其性能在某些领域超越了医生。AI 算法目前正在应用于肝脏成像、肝脏组织病理学解释、无创测试、预测模型等领域。在这篇综述中,我们总结了 AI 在肝病学中的现状,并讨论了当前大规模实施面临的挑战,包括一些伦理方面。我们向读者强调,本综述中讨论的大多数基于 AI 的算法仍处于早期开发阶段,它们的效用和对患者结果的影响仍需要在未来的大规模和包容性研究中进行评估。我们的愿景是,人工智能在肝病学中的应用将提高医生的表现,减少文档处理的负担和时间,并重建对获得良好结果至关重要的个性化医患关系。
利用管理政策和程序分析 医患关系的基石是共同决策;即根据合理的临床判断和与患者就风险和益处进行的诚实讨论,在正确的时间做出正确的检查或治疗决定。偏离医疗保险覆盖标准的事先授权政策忽视了当前的证据,无视共同决策的价值,扰乱了患者护理,并增加了临床医生的负担,他们每周要花费无数时间呼吁付款人支付规定的检查和治疗费用。心脏病是美国男性和女性死亡的主要原因。有许多测试可用于诊断心血管疾病和病症。医生开具哪种测试应基于多种因素,包括症状、病史和个人的身体特征。然而,很多时候,决定权不在医生手中,而仅仅基于成本。我们认为,随着付款人多元化,包括通过投资和收购技术和医疗福利管理公司,利益冲突可能会影响医疗必要性决定。心血管疾病很复杂,由于诊断测试和治疗方法多种多样,即使在临床医生之间,也会出现混淆和分歧。