该项目研究了人们支持在刑事法庭中使用人工智能的程度以及与这种支持相关的因素。2022 年 9 月进行的网络调查显示,支持率平均得分较低(1-5 分制中为 2.64 分),表明在刑事法庭中使用人工智能被认为是负面的。它还表明,人工智能被认为越“不人性化”和“不透明”,它得到的支持就越少。相反,它被认为越“公平”,它得到的支持就越多。我们打算跟进这次调查并计划其余的实验。
人们经常宣传“大数据”和人工智能 (AI) 的结合在应用于医疗决策时具有带来宝贵健康益处的潜力。然而,负责任地采用基于 AI 的临床决策支持系统在个人和社会层面都面临着若干挑战。引起特别关注的特征之一是可解释性问题,因为如果医生不知道(或无法知道)算法得出特定输出的方式,这可能会导致多重挑战,包括无法评估输出的优点。这种“不透明性”问题引发了人们对医生是否合理地依赖算法输出的质疑,一些学者坚持可解释性的重要性,而另一些学者则认为没有理由要求 AI 做医生不需要的事情。我们认为这两种观点都有可取之处,但我们发现,为了阐明可解释性在临床实践中的潜在功能,以及它在临床应用人工智能背景下的相关性,需要进行更细致的分析。在本文中,我们通过研究可解释性在临床医学中的需求来探索可解释性,并区分可解释性对当前患者和未来患者的功能。这种区别对可解释性的短期和长期要求具有影响。我们强调了透明度在可解释性中的作用,并认为语义透明度是可解释性问题本身的基础。我们认为,在日常临床实践中,准确性足以作为临床决策的“认识论依据”,而要求科学或因果解释意义上的可解释性的最令人信服的理由是通过建立更强大的世界模型来改善未来的护理。我们认为临床决策的目标是尽可能多地提供最佳结果,并且发现——只要揭示科学解释的努力继续改善未来患者的医疗保健,准确性就足以为当今的患者提供干预。
人工智能 (AI) 是一种使计算机能够解决问题并执行传统上需要人类智能的任务的技术。来自电子病历和功能强大的现代微型计算机的大量医疗数据的可用性促进了医学领域 AI 的发展。AI 已证明其适用于许多不同的医学领域,例如药物发现、诊断放射学和病理学,以及心脏病学和外科手术中的介入应用。然而,直到今天,AI 很少用于麻醉学的临床实践。尽管文献中已经发表了大量关于 AI 在麻醉学中的应用的研究,但已开发的用于商业用途或准备进行临床试验的机器人系统数量仍然有限。本文确定并讨论了 AI 系统的局限性,包括不正确的医疗数据格式、个体患者差异、当前 AI 系统能力不足、麻醉师缺乏使用 AI 的经验、系统不可靠、无法解释的 AI 结论和严格的规定。为了确保麻醉师对人工智能系统的信任并改善其在日常实践中的应用,应对系统和算法进行严格的质量控制。此外,麻醉学人员应该在人工智能系统的开发中发挥不可或缺的作用,然后我们才能看到更多的人工智能融入临床麻醉学。关键词
由于计算能力的显著进步和优化算法(尤其是机器学习 (ML))的改进,人工智能 (AI) 的自动决策得到了广泛采用。复杂的 ML 模型提供了良好的预测准确性;然而,ML 模型的不透明性并不能为它们在贷款决策自动化中的应用提供足够的保证。本文提出了一个可解释的人工智能决策支持系统,通过信念规则库 (BRB) 实现贷款承保流程的自动化。该系统可以容纳人类知识,也可以通过监督学习从历史数据中学习。BRB 的层次结构可以容纳事实规则和启发式规则。该系统可以通过激活规则的重要性和规则中先行属性的贡献来解释导致贷款申请决策的事件链。抵押贷款承保自动化的商业案例研究表明,BRB 系统可以在准确性和可解释性之间提供良好的权衡。规则激活产生的文本解释可以作为拒绝贷款的理由。申请的决策过程可以通过规则在提供决策中的重要性及其先行属性的贡献来理解。
摘要:研究人员已经提出了几种基于机器学习和数据挖掘技术的自动诊断系统来预测心力衰竭。然而,研究人员并没有密切关注预测心脏病患者的死亡率。为了解决这个问题,我们开发了一个用于预测心脏病患者死亡率的临床决策支持系统。为所提模型的实验目的收集的数据集包含 55 个特征,总共 368 个样本。我们发现数据集中的类别高度不平衡。为了避免机器学习模型中的偏差问题,我们使用了合成少数过采样技术 (SMOTE)。在平衡数据集中的类别后,新提出的系统采用 χ2 统计模型对数据集中的特征进行排序。排名最高的特征被输入到优化的随机森林 (RF) 模型中进行分类。使用网格搜索算法优化 RF 分类器的超参数。使用多种评估指标验证了新提出的模型 ( χ 2 _RF) 的性能,包括准确度、灵敏度、特异性、F1 分数和受试者工作特征 (ROC) 曲线。仅使用数据集中的 10 个特征,提出的模型 χ 2 _RF 就实现了 94.59% 的最高准确度。提出的模型 χ 2 _RF 将标准 RF 模型的性能提高了 5.5%。此外,还将提出的模型 χ 2 _RF 与其他最先进的机器学习模型进行了比较。实验结果表明,新提出的决策支持系统优于使用相同特征选择模块 ( χ 2 ) 的其他机器学习系统。
脑肿瘤的抽象多类分类是医学成像领域研究的重要领域。由于准确性对于分类至关重要,因此计算机视觉研究人员引入了许多技术。但是,他们仍然面临着准确性低的问题。在本文中,提出了一种新的自动化深度学习方法,以分类多类脑肿瘤。为了实现所提出的方法,Densenet201预先训练的深度学习模型进行了微调,然后使用不平衡数据学习的深度传输进行了训练。训练有素的模型的特征是从平均池层中提取的,这代表了每种类型的肿瘤的深度信息。但是,该层的特征不足以进行精确的分类。因此,提出了两种用于选择功能的技术。第一种技术是基于熵的高特征值(EKBHFV),第二种技术是基于元启发式的改良遗传算法(MGA)。GA的选定特征通过提出的新阈值旧功能进一步完善。最后,使用非冗余串行方法融合了EKBHFV和基于MGA的功能,并使用多类SVM Cubic分类器进行分类。在实验过程中,使用了两个数据集,包括BRATS2018和BRATS2019,没有增加,并且精确度超过95%。所提出的方法与其他神经网的精确比较显示了这项工作的重要性。
摘要 - 运动障碍的幼儿面临着额外的障碍,无法进行运动和发起社会行动。体重支撑安全带系统(BWSS)允许孩子采取步骤,探索环境并与人和物体互动,但是需要进一步的研究以了解这种类型的系统如何帮助患有运动障碍的儿童。辅助机器人有可能在使用BWSS的物理治疗期间让孩子参与和动机。我们进行了三个半月以来的案例研究,以了解单独的BWSS以及带有辅助机器人的BWSS是否可以促进儿童运动和参与。我们的结果表明,儿童倾向于增加与BWSS的每一次会话的运动量。本研究中使用的辅助机器人也倾向于保持孩子的参与度。这项工作的产品可以使对早期流动干预技术感兴趣的临床医生和研究人员以及在儿童流动性领域工作的机器人。
人工智能(AI)已广泛应用于医学各个领域,如影像诊断、病理分型、治疗方案选择、预后分析等,尤其在肿瘤影像辅助诊断中,人机交互的配合已趋于成熟。但AI作为新兴技术应用于临床决策的伦理问题尚未得到充分支持,因此基于AI技术的临床决策支持系统(CDSS)在临床实践中还未像影像辅助诊断系统一样充分实现人机交互。目前全球范围内使用和推广的CDSS包括Watson for Oncology、中国临床肿瘤学会人工智能分会(CSCO AI)等。本文对AI在CDSS中的应用进行综述并阐明其原理,分析AI在肿瘤决策中的应用难点,为今后AI在肿瘤决策中的应用提供参考方案。
a 爱丁堡大学,Usher 研究所,爱丁堡,英国 b 基尔大学,社会、政治和全球研究学院及初级、社区和社会保健学院,基尔,英国 c 麦考瑞大学,澳大利亚健康创新研究所,悉尼,澳大利亚 d 威尔士三一圣大卫大学,斯旺西,英国 e 奥尔堡大学健康科学与技术系,奥尔堡,丹麦 f 德克萨斯大学圣安东尼奥健康科学中心,德克萨斯州圣安东尼奥,美国 g 圣卢克国际大学,公共卫生研究生院,东京,日本 h 犹他大学生物医学信息学系,美国 i UMIT TIROL,私立健康科学与健康信息学大学,医学信息学研究所,蒂罗尔霍尔,奥地利 j 阿姆斯特丹 UMC 所在地 阿姆斯特丹大学,医学信息学系,梅伯格德雷夫 9,阿姆斯特丹,荷兰 k 阿姆斯特丹公共卫生研究所,数字健康与护理质量,荷兰阿姆斯特丹 l 坦佩雷大学,信息技术与芬兰传播科学 m 澳大利亚悉尼麦考瑞大学医学、健康与人文科学学院 n 英国爱丁堡大学科学、技术与创新研究所