摘要 — 可解释的人工智能在近十年中引起了极大兴趣,因为它在自动驾驶汽车、法律和医疗保健等关键应用领域中具有重要意义。遗传编程是一种强大的机器学习进化算法。与神经网络等其他标准机器学习模型相比,由 GP 进化而来的模型由于其模型结构具有符号组件而往往更易于解释。然而,直到最近,随着可解释的人工智能的流行,遗传编程才明确考虑可解释性。本文全面回顾了遗传编程研究,遗传编程可以潜在地显式和隐式地提高模型的可解释性。我们将现有的与通过遗传编程实现可解释人工智能相关的研究分为两类。第一类考虑内在的可解释性,旨在通过遗传编程直接进化出更可解释(和有效)的模型。第二类侧重于事后可解释性,即使用遗传编程来解释其他黑盒机器学习模型,或用线性模型等更简单的模型来解释遗传编程演化出的模型。这项全面的调查展示了遗传编程在提高机器学习模型的可解释性以及平衡模型准确性和可解释性之间的复杂权衡方面的巨大潜力。
摘要 — 最近,人工智能和机器学习在从图像处理到自然语言处理等许多任务中都表现出色,尤其是深度学习 (DL) 的出现。随着研究的进展,它们已经侵入许多不同的领域和学科。其中一些领域需要高度的责任感和透明度,例如医疗部门。因此需要对机器决策和预测进行解释以证明其可靠性。这需要更高的可解释性,这通常意味着我们需要了解算法背后的机制。不幸的是,DL 的黑箱性质仍未解决,许多机器决策仍然不太理解。我们回顾了不同研究工作提出的可解释性并对其进行了分类。不同的类别展示了可解释性研究的不同维度,从提供“明显”可解释信息的方法到复杂模式的研究。通过将相同的分类应用于医学研究中的可解释性,希望:1) 临床医生和从业者随后可以谨慎对待这些方法; 2)随着对医疗实践的更多考虑,对可解释性的洞察将随之产生;3)鼓励推动基于数据、数学和技术的医学教育。
摘要 — 最近,人工智能和机器学习在从图像处理到自然语言处理等许多任务中都表现出色,尤其是深度学习 (DL) 的出现。随着研究的进展,它们已经侵入许多不同的领域和学科。其中一些领域需要高度的责任感和透明度,例如医疗部门。因此需要对机器决策和预测进行解释以证明其可靠性。这需要更高的可解释性,这通常意味着我们需要了解算法背后的机制。不幸的是,DL 的黑箱性质仍未解决,许多机器决策仍然不太理解。我们回顾了不同研究工作提出的可解释性并对其进行了分类。不同的类别展示了可解释性研究的不同维度,从提供“明显”可解释信息的方法到复杂模式的研究。通过将相同的分类应用于医学研究中的可解释性,希望:1) 临床医生和从业者随后可以谨慎对待这些方法; 2)随着对医疗实践的更多考虑,对可解释性的洞察将随之产生;3)鼓励推动基于数据、数学和技术的医学教育。
深度学习方法在人工智能和机器学习领域几乎所有学科都取得了巨大成功。现在,有迹象表明,人们不再仅仅关注提高模型的识别性能。像“负责任的人工智能”这样的框架现在脱颖而出,它们假定人工智能应用程序具有公平性、可解释性、隐私性和安全性等属性。在本文中,我将特别关注可解释性的概念,将可解释性扩展到包括“信任”,并说明为什么应该进行更多研究来结合可解释人工智能和不确定性量化的方法。为此,我将讨论这两个独立的研究分支,指出它们的方法,并展示它们在提高可信度方面的相关性——可信的质量或状态。已经有“不确定性下的规划”和“不确定性下的决策”等研究领域将已知方法与不确定性相结合,但这些领域要么
本综述旨在明确开发人工智能 (AI) 医疗器械 (MD)(基于 AI 的 MD)所必需的不同概念,并阐明算法性能、可解释性和可解释性如何成为关键资产。首先,进行了文献综述,以确定现有指南中对基于 AI 的 MD 进行卫生技术评估所需的关键标准。然后,我们分析了文献综述后选定的不同标准的现有评估方法。范围界定审查显示,卫生技术评估机构强调了不同的标准,其中 3 个重要标准可增强对基于 AI 的 MD 的信心:性能、可解释性和可解释性。我们根据模型结构和可用数据就如何以及何时评估性能提出了建议。此外,如果可解释性和可解释性难以在数学上定义,我们将描述支持其评估的现有方法。我们还提供了决策支持流程图,以确定开发和评估基于 AI 的 MD 的预期监管要求。可解释性和可解释性技术在卫生技术评估机构中的重要性日益增加,以使利益相关者对基于人工智能的医学博士做出的决策承担更多责任。根据卫生技术评估指南确定了基于人工智能的医学博士的 3 个主要评估标准,这促使我们提出了一套工具和方法,以帮助理解机器学习算法的工作原理和原因以及它们的预测。
在缺血性中风的治疗中,及时有效地再通闭塞的脑动脉可以成功挽救缺血的大脑。溶栓治疗是缺血性中风的一线治疗方法。机器学习模型有可能选出最能从溶栓中获益的患者。在本研究中,我们确定了29个相关的先前机器学习模型,回顾了这些模型的准确性和可行性,并提出了相应的改进建议。在准确性方面,许多先前的研究在模型概念化方面发现缺乏长期结果、治疗方案考虑和高级放射学特征。关于可解释性,大多数先前的模型选择了限制性模型以提高可解释性,并没有提到处理时间的考虑。未来,模型概念化可以基于全面的神经领域知识进行改进,可行性需要通过精心设计的计算机科学算法来实现,以提高灵活算法的可解释性并缩短解释医学图像的流程的处理时间。
目的是通过将深度学习与传统分类器相结合,提高准确性,解释性并验证这种统一的中风预测方法的有效性来开发增强的缺血性中风预测模型。