神经放射学研究员,导致图像解释频繁中断。虽然协议制定是放射科医生的一项重要工作,但它很耗时,可以从更高的自动化中受益。尽管存在标准化规则,例如美国放射学院适当性标准 2,但放射科医生经常对哪种协议最适合某项研究意见不一。3 放射科医生的偏好可能因培训水平和经验而有很大差异,并可能导致协议选择不理想。Boland 等人 3 提倡协议标准化,以提高效率和患者安全。人工智能 (AI) 可以潜在地提高流程的效率和标准化。本研究的目标是确定历史协议选择相对于基于放射科医生共识的标准标准的可变程度,并将基于 AI 的解决方案的性能与该标准进行比较。我们还试图通过使用先前描述的技术将自动化算法评估为临床决策支持 (CDS) 工具
人工智能(AI)已广泛应用于医学各个领域,如影像诊断、病理分型、治疗方案选择、预后分析等,尤其在肿瘤影像辅助诊断中,人机交互的配合已趋于成熟。但AI作为新兴技术应用于临床决策的伦理问题尚未得到充分支持,因此基于AI技术的临床决策支持系统(CDSS)在临床实践中还未像影像辅助诊断系统一样充分实现人机交互。目前全球范围内使用和推广的CDSS包括Watson for Oncology、中国临床肿瘤学会人工智能分会(CSCO AI)等。本文对AI在CDSS中的应用进行综述并阐明其原理,分析AI在肿瘤决策中的应用难点,为今后AI在肿瘤决策中的应用提供参考方案。
英国邓迪大学医学院的人口健康和基因组学部门(英国邓迪大学医学院意大利帕多瓦的国家研究委员会神经科学研究所(Mari PhD);英国埃克塞特埃克塞特大学生物医学与临床科学研究所(T J McDonald PhD,A G Jones PhD); Biostat Solutions,美国医学博士Fredrick(L Li Phd,S Wang PhD);生命实验室科学,化学,生物技术与健康工程科学学院,瑞典斯德哥尔摩KTH皇家技术学院(M-G Hong PhD);研究单位分子流行病学,流行病学研究所II,德国诺伊尔伯格的Helmholtz Zentrum Muenchen(S Sharma PhD);英国牛津大学牛津大学人类遗传学信托基金中心(N R Robertson PhD,Mahajan PhD);生命实验室科学,瑞典乌普萨拉大学医学细胞生物学系,瑞典(X Wang PhD);纽卡斯尔大学纽卡斯尔大学蜂窝医学研究所,英国泰恩省(M Walker Phd教授);丹麦索伯格Novo Nordisk的全球首席医疗办公室(S HER)(高级教授);英国邓迪大学医学院的人口健康和基因组学部门(英国邓迪大学医学院意大利帕多瓦的国家研究委员会神经科学研究所(Mari PhD);英国埃克塞特埃克塞特大学生物医学与临床科学研究所(T J McDonald PhD,A G Jones PhD); Biostat Solutions,美国医学博士Fredrick(L Li Phd,S Wang PhD);生命实验室科学,化学,生物技术与健康工程科学学院,瑞典斯德哥尔摩KTH皇家技术学院(M-G Hong PhD);研究单位分子流行病学,流行病学研究所II,德国诺伊尔伯格的Helmholtz Zentrum Muenchen(S Sharma PhD);英国牛津大学牛津大学人类遗传学信托基金中心(N R Robertson PhD,Mahajan PhD);生命实验室科学,瑞典乌普萨拉大学医学细胞生物学系,瑞典(X Wang PhD);纽卡斯尔大学纽卡斯尔大学蜂窝医学研究所,英国泰恩省(M Walker Phd教授);丹麦索伯格Novo Nordisk的全球首席医疗办公室(S HER)(高级教授);
方法:我们选择了越南中部地区疾病负担较重的七种传染病类别:蚊媒疾病、急性胃肠炎、呼吸道感染、肺结核、败血症、原发性神经系统感染和病毒性肝炎。我们开发了一套问卷,收集疑似传染病患者的当前症状和病史信息。我们使用从 1,129 名患者收集的数据来开发和测试诊断模型。我们使用 XGBoost、LightGBM 和 CatBoost 算法来创建用于临床决策支持的人工智能。我们使用 4 倍交叉验证方法来验证人工智能模型。经过 4 倍交叉验证后,我们在单独的测试数据集上测试了人工智能模型,并估计了每个模型的诊断准确性。
方法:我们选择了越南中部地区疾病负担较重的七种传染病类别:蚊媒疾病、急性胃肠炎、呼吸道感染、肺结核、败血症、原发性神经系统感染和病毒性肝炎。我们开发了一套问卷,收集疑似传染病患者的当前症状和病史信息。我们使用从 1,129 名患者收集的数据来开发和测试诊断模型。我们使用 XGBoost、LightGBM 和 CatBoost 算法来创建用于临床决策支持的人工智能。我们使用 4 倍交叉验证方法来验证人工智能模型。经过 4 倍交叉验证后,我们在单独的测试数据集上测试了人工智能模型,并估计了每个模型的诊断准确性。
摘要 尽管数据、模拟技术和预测分析的可用性不断提高,但目前尚不清楚用户是否会信任决策支持系统 (DSS),以及在何种条件下会信任。DSS 旨在通过更准确的预测和建议,帮助用户在专业任务中做出更明智的决策。这项混合方法用户研究通过分析 DSS 用户界面中集成可靠性指示对首次使用不确定情况下的流程管理的潜在影响,为信任校准研究做出了贡献。十位专门从事建筑数字工具的专家被要求在一个改造项目场景中测试和评估两个版本的 DSS。我们发现,虽然用户表示他们需要完全访问所有信息才能做出自己的决定,但 DSS 中的可靠性指示往往会让用户更愿意做出初步决策,用户会根据指示的可靠性调整他们的信心和依赖性。DSS 中的可靠性指示还增加了主观有用性和系统可靠性。根据这些发现,建议在可靠性指示设计中,从业者考虑在 DSS 用户界面中显示多个粒度级别的可靠性信息组合,包括可视化,例如交通信号灯系统,并为可靠性信息提供解释。进一步的研究方向
航母操作环境。这将给本已高度受限和危险的环境增加极大的复杂性。在人员减少的环境中,随着操作节奏的加快,向共享有人-无人环境迈进,意味着在这些复杂环境中,飞机、地面车辆和机组人员的规划和调度需要更多的自动化。然而,虽然自动规划算法速度快,能够在短时间内处理大量信息,但它们往往很脆弱,无法应对高度动态环境中不断变化的条件。最近的研究表明,通过允许人类操作员和自动规划人员之间的高级交互,可以显著提高整体任务性能。为此,已经开发了一个用户界面,允许管理航空母舰甲板操作的人类决策者直接与集中规划算法交互,以调度飞行中和甲板上的飞机(有人和无人),以及地面车辆和人员。该甲板操作行动路线规划器 (DCAP) 系统利用人类决策者的经验和高级目标导向行为,结合强大的自动规划算法来制定可行、稳健的计划。本文重点介绍了 DCAP 的设计特点,并介绍了旨在量化价值的评估的初步结果
摘要 医疗技术的监管必须严格,以赢得医疗服务提供者和患者的信任。这对于控制和监督医疗保健领域日益增长的人工智能使用尤其重要。在这篇对 Van Laere 及其同事的随附文章的评论中,我们阐述了人工智能在医疗保健领域的应用范围,并概述了监管机构在应对这些现代技术时面临的五个关键挑战。应对这些挑战并不容易。虽然人工智能在医疗保健领域的应用已经取得了快速进展并使患者受益,但这些应用显然在未来的发展中具有更大的潜力。然而,至关重要的是,监管环境必须跟上这个快速发展的医疗保健领域,以便预测并尽可能地预防可能出现的风险。关键词:监管、临床决策支持、人工智能版权:© 2023 作者;克尔曼医科大学出版。这是一篇开放获取的文章,根据 Creative Commons 署名许可条款发布(https://creativecommons.org/licenses/by/4.0),允许在任何媒体中不受限制地使用、分发和复制,前提是对原始作品进行适当引用。引用:McKee M,Wouters OJ。医疗保健领域人工智能监管的挑战:评论“临床决策支持和医疗器械的新监管框架:我们准备好了吗?——一篇观点论文。” Int J Health Policy Manag。2023;12:7261。doi:10.34172/ijhpm.2022.7261
人们经常宣传“大数据”和人工智能 (AI) 的结合在应用于医疗决策时具有带来宝贵健康益处的潜力。然而,负责任地采用基于 AI 的临床决策支持系统在个人和社会层面都面临着若干挑战。引起特别关注的特征之一是可解释性问题,因为如果医生不知道(或无法知道)算法得出特定输出的方式,这可能会导致多重挑战,包括无法评估输出的优点。这种“不透明性”问题引发了人们对医生是否合理地依赖算法输出的质疑,一些学者坚持可解释性的重要性,而另一些学者则认为没有理由要求 AI 做医生不需要的事情。我们认为这两种观点都有可取之处,但我们发现,为了阐明可解释性在临床实践中的潜在功能,以及它在临床应用人工智能背景下的相关性,需要进行更细致的分析。在本文中,我们通过研究可解释性在临床医学中的需求来探索可解释性,并区分可解释性对当前患者和未来患者的功能。这种区别对可解释性的短期和长期要求具有影响。我们强调了透明度在可解释性中的作用,并认为语义透明度是可解释性问题本身的基础。我们认为,在日常临床实践中,准确性足以作为临床决策的“认识论依据”,而要求科学或因果解释意义上的可解释性的最令人信服的理由是通过建立更强大的世界模型来改善未来的护理。我们认为临床决策的目标是尽可能多地提供最佳结果,并且发现——只要揭示科学解释的努力继续改善未来患者的医疗保健,准确性就足以为当今的患者提供干预。
人们经常宣扬“大数据”与人工智能 (AI) 的结合,认为将其应用于医疗决策时能带来宝贵的健康益处。然而,负责任地采用基于人工智能的临床决策支持系统在个人和社会层面都面临着多重挑战。其中一个特别令人担忧的特点是可解释性问题,因为如果医生不知道(或无法知道)算法得出特定输出的方式,则可能导致多重挑战,包括无法评估输出的优点。这种“不透明性”问题引发了人们对医生是否合理依赖算法输出的质疑,一些学者坚持可解释性的重要性,而另一些学者则认为没有理由对人工智能有要求,而对医生没有要求的东西。我们认为这两种观点都有可取之处,但我们发现,为了阐明可解释性在临床实践中的基本功能,从而阐明其在人工智能临床应用背景下的相关性,需要进行更深入的探讨。在本文中,我们通过研究可解释性在临床医学中的要求来探索可解释性,并区分可解释性对当前患者和未来患者的功能。这种区别对于可解释性的短期和长期要求具有影响。我们强调透明度在可解释性中的作用,并确定语义透明度是可解释性问题本身的基础。我们认为,在日常临床实践中,准确性足以作为临床决策的“认识论依据”,而要求可解释性(科学或因果解释)的最令人信服的理由是,通过建立更强大的世界模型,有可能改善未来的护理。我们认为临床决策的目标是尽可能多地提供最佳结果,并且发现——只要努力探索科学解释并继续改善未来患者的医疗保健,准确性就足以作为对当今患者进行干预的依据。