摘要 — 最近,人工智能和机器学习在从图像处理到自然语言处理等许多任务中都表现出色,尤其是深度学习的出现。随着研究的进展,它们已经侵入许多不同的领域和学科。其中一些领域需要高度的责任感和透明度,例如医疗部门。因此需要对机器决策和预测进行解释以证明其可靠性。这需要更高的可解释性,这通常意味着我们需要了解算法背后的机制。不幸的是,深度学习的黑箱性质仍未解决,许多机器决策仍然知之甚少。我们回顾了不同研究工作提出的可解释性并对其进行了分类。不同的类别展示了可解释性研究的不同维度,从提供“明显”可解释信息的方法到复杂模式的研究。通过将相同的分类应用于医学研究中的可解释性,希望(1)临床医生和从业者随后可以谨慎对待这些方法;(2)对可解释性的洞察将更多地考虑医疗实践;(3)鼓励推动基于数据、数学和技术的医学教育。
XAI 模型高度透明,可以用人类语言解释 AI 决策是如何做出的。可解释性不仅为其决策提供解释,还帮助用户识别和理解潜在问题,因此他们可以利用结果来确定问题的根本原因并改进其操作流程。至关重要的是,它们不仅仅依赖于数据,还可以通过人类智能得到提升和增强。这些模型围绕因果关系构建,为人类感知创造了空间,以检测并确保机器学习具有代表性、全面性、完整性并处理所有可能的情况,如果没有,则允许进行必要的更改。
