人们经常宣传“大数据”和人工智能 (AI) 的结合在应用于医疗决策时具有带来宝贵健康益处的潜力。然而,负责任地采用基于 AI 的临床决策支持系统在个人和社会层面都面临着若干挑战。引起特别关注的特征之一是可解释性问题,因为如果医生不知道(或无法知道)算法得出特定输出的方式,这可能会导致多重挑战,包括无法评估输出的优点。这种“不透明性”问题引发了人们对医生是否合理地依赖算法输出的质疑,一些学者坚持可解释性的重要性,而另一些学者则认为没有理由要求 AI 做医生不需要的事情。我们认为这两种观点都有可取之处,但我们发现,为了阐明可解释性在临床实践中的潜在功能,以及它在临床应用人工智能背景下的相关性,需要进行更细致的分析。在本文中,我们通过研究可解释性在临床医学中的需求来探索可解释性,并区分可解释性对当前患者和未来患者的功能。这种区别对可解释性的短期和长期要求具有影响。我们强调了透明度在可解释性中的作用,并认为语义透明度是可解释性问题本身的基础。我们认为,在日常临床实践中,准确性足以作为临床决策的“认识论依据”,而要求科学或因果解释意义上的可解释性的最令人信服的理由是通过建立更强大的世界模型来改善未来的护理。我们认为临床决策的目标是尽可能多地提供最佳结果,并且发现——只要揭示科学解释的努力继续改善未来患者的医疗保健,准确性就足以为当今的患者提供干预。
由于计算能力的显著进步和优化算法(尤其是机器学习 (ML))的改进,人工智能 (AI) 的自动决策得到了广泛采用。复杂的 ML 模型提供了良好的预测准确性;然而,ML 模型的不透明性并不能为它们在贷款决策自动化中的应用提供足够的保证。本文提出了一个可解释的人工智能决策支持系统,通过信念规则库 (BRB) 实现贷款承保流程的自动化。该系统可以容纳人类知识,也可以通过监督学习从历史数据中学习。BRB 的层次结构可以容纳事实规则和启发式规则。该系统可以通过激活规则的重要性和规则中先行属性的贡献来解释导致贷款申请决策的事件链。抵押贷款承保自动化的商业案例研究表明,BRB 系统可以在准确性和可解释性之间提供良好的权衡。规则激活产生的文本解释可以作为拒绝贷款的理由。申请的决策过程可以通过规则在提供决策中的重要性及其先行属性的贡献来理解。
摘要:研究人员已经提出了几种基于机器学习和数据挖掘技术的自动诊断系统来预测心力衰竭。然而,研究人员并没有密切关注预测心脏病患者的死亡率。为了解决这个问题,我们开发了一个用于预测心脏病患者死亡率的临床决策支持系统。为所提模型的实验目的收集的数据集包含 55 个特征,总共 368 个样本。我们发现数据集中的类别高度不平衡。为了避免机器学习模型中的偏差问题,我们使用了合成少数过采样技术 (SMOTE)。在平衡数据集中的类别后,新提出的系统采用 χ2 统计模型对数据集中的特征进行排序。排名最高的特征被输入到优化的随机森林 (RF) 模型中进行分类。使用网格搜索算法优化 RF 分类器的超参数。使用多种评估指标验证了新提出的模型 ( χ 2 _RF) 的性能,包括准确度、灵敏度、特异性、F1 分数和受试者工作特征 (ROC) 曲线。仅使用数据集中的 10 个特征,提出的模型 χ 2 _RF 就实现了 94.59% 的最高准确度。提出的模型 χ 2 _RF 将标准 RF 模型的性能提高了 5.5%。此外,还将提出的模型 χ 2 _RF 与其他最先进的机器学习模型进行了比较。实验结果表明,新提出的决策支持系统优于使用相同特征选择模块 ( χ 2 ) 的其他机器学习系统。
脑肿瘤的抽象多类分类是医学成像领域研究的重要领域。由于准确性对于分类至关重要,因此计算机视觉研究人员引入了许多技术。但是,他们仍然面临着准确性低的问题。在本文中,提出了一种新的自动化深度学习方法,以分类多类脑肿瘤。为了实现所提出的方法,Densenet201预先训练的深度学习模型进行了微调,然后使用不平衡数据学习的深度传输进行了训练。训练有素的模型的特征是从平均池层中提取的,这代表了每种类型的肿瘤的深度信息。但是,该层的特征不足以进行精确的分类。因此,提出了两种用于选择功能的技术。第一种技术是基于熵的高特征值(EKBHFV),第二种技术是基于元启发式的改良遗传算法(MGA)。GA的选定特征通过提出的新阈值旧功能进一步完善。最后,使用非冗余串行方法融合了EKBHFV和基于MGA的功能,并使用多类SVM Cubic分类器进行分类。在实验过程中,使用了两个数据集,包括BRATS2018和BRATS2019,没有增加,并且精确度超过95%。所提出的方法与其他神经网的精确比较显示了这项工作的重要性。
人工智能(AI)已广泛应用于医学各个领域,如影像诊断、病理分型、治疗方案选择、预后分析等,尤其在肿瘤影像辅助诊断中,人机交互的配合已趋于成熟。但AI作为新兴技术应用于临床决策的伦理问题尚未得到充分支持,因此基于AI技术的临床决策支持系统(CDSS)在临床实践中还未像影像辅助诊断系统一样充分实现人机交互。目前全球范围内使用和推广的CDSS包括Watson for Oncology、中国临床肿瘤学会人工智能分会(CSCO AI)等。本文对AI在CDSS中的应用进行综述并阐明其原理,分析AI在肿瘤决策中的应用难点,为今后AI在肿瘤决策中的应用提供参考方案。
a 爱丁堡大学,Usher 研究所,爱丁堡,英国 b 基尔大学,社会、政治和全球研究学院及初级、社区和社会保健学院,基尔,英国 c 麦考瑞大学,澳大利亚健康创新研究所,悉尼,澳大利亚 d 威尔士三一圣大卫大学,斯旺西,英国 e 奥尔堡大学健康科学与技术系,奥尔堡,丹麦 f 德克萨斯大学圣安东尼奥健康科学中心,德克萨斯州圣安东尼奥,美国 g 圣卢克国际大学,公共卫生研究生院,东京,日本 h 犹他大学生物医学信息学系,美国 i UMIT TIROL,私立健康科学与健康信息学大学,医学信息学研究所,蒂罗尔霍尔,奥地利 j 阿姆斯特丹 UMC 所在地 阿姆斯特丹大学,医学信息学系,梅伯格德雷夫 9,阿姆斯特丹,荷兰 k 阿姆斯特丹公共卫生研究所,数字健康与护理质量,荷兰阿姆斯特丹 l 坦佩雷大学,信息技术与芬兰传播科学 m 澳大利亚悉尼麦考瑞大学医学、健康与人文科学学院 n 英国爱丁堡大学科学、技术与创新研究所
第二章:高级供应链计划流程与运筹学应用......................................................................................................26
背景:面对糖尿病管理的日益复杂性以及缺乏专门的内分泌学家来支持糖尿病护理,提供全面和个性化的糖尿病护理仍然是一个重大挑战。临床决策支持系统(CDSS)逐渐被用来改善糖尿病护理,而许多医疗保健提供者缺乏对糖尿病护理中CDSS的认识和知识。仍然缺乏对CDSS在糖尿病护理中的应用的全面分析。目的:本综述旨在总结研究格局,临床应用以及对糖尿病护理中CDSS的患者和医生的影响。方法:我们在Arksey和O'Malley框架之后进行了范围审查。在7个电子数据库中进行了搜索,以识别截至2022年6月30日的糖尿病中CDSS的临床应用。对2021 - 2022年期间的会议摘要进行了其他搜索。两名研究人员独立执行了筛选和数据图表过程。结果:在11,569项检索研究中,包括85个(0.7%)进行分析。在这一领域的研究兴趣正在增长,过去5年中的85项研究中有45个(53%)。在披露基本决策机制的85项研究中,有58个(68%)中,大多数CDSS(44/58,76%)是基于知识的,而近年来,基于非知识的系统的数量一直在增加。在85项披露应用方案的研究中的81个(95%)中,大多数CDSS用于治疗建议(63/81,78%)。在85项研究中,有39名(46%)在披露医师的用户类型中,初级保健医师(20/39,51%)是最常见的,其次是内分泌学家(15/39,39%)和非内分泌专家(8/39,21%)。CDSS在71%(45/63),67%(12/18)和38%(8/21)的研究中显着改善了患者的血糖,血压和脂质谱,分别没有增加降低降低性糖类的风险。结论:CDSS在改善糖尿病护理方面既有效又安全,这意味着它们可能是糖尿病护理中潜在可靠的助手,尤其是对于经验有限的医生和获得医疗资源有限的患者而言。国际注册报告标识符(IRRID):RR2-10.37766/inPlasy2022.9.0061
糖尿病是一种非传染性疾病,已达到流行病,全球影响5.37亿人。人工智能可以在糖尿病营养疗法中为患者或临床医生提供支持 - 在大多数1型和2型糖尿病的情况下,第一种药物疗法。尤其是基于本体的推荐人和决策支持系统可以提供专家知识的可计算代表,从而提供患者监管的营养建议或支持临床人员确定最合适的饮食。这项工作提出了对描述此类系统中糖尿病的领域的系统文献回顾,识别其潜在的概念化,系统针对的用户,所解决的糖尿病类型以及提供的营养建议。本综述还深入研究了领域本体论的结构,突出了几个方面可能会阻碍(或促进)其在推荐人中的采用和决策支持系统中用于糖尿病营养疗法。这一审查过程的结果允许强调如何制定推荐,以及临床专家在发展领域本体论中的作用,概述了表征该研究领域的研究趋势。结果还允许确定可以促进临床专家和临床指南的重要作用的研究方向,以使本体更加可互操作,从而使他们能够在有关糖尿病营养治疗的决策过程中发挥重要作用。
在这篇文章中,具有AI伦理,风险分析和国际安全研究背景的Matthias Klaus探讨了与军事AI应用相关的伦理挑战,通常被对自主武器系统(AWS)的主要主导所在的担忧所掩盖。他强调了与DSS专门相关的许多道德挑战,这些挑战通常被描绘成为军事决策带来更多的客观性,有效性和效率。但是,他们可能会促进偏见,侵犯人类的自主权和尊严,并通过导致同伴压力和咨询行动,从而有效地破坏军事道德责任。