可解释的人工智能 (XAI):对近期方法、应用程序和框架的调查

什么是可解释人工智能 (XAI),最流行的方法是什么,它可以在哪里以及如何应用

来源:AI夏令营

深度学习应用引起了广泛关注,因为它们在图像和语音识别以及推荐系统等许多任务中都超越了人类。然而,这些应用缺乏可解释性和可靠性。

缺乏可解释性和可靠性

深度学习模型通常被认为是难以理解的黑匣子,而其底层机制也很复杂。

它们无法证明其决策和预测的合理性,人类无法信任它们。另一方面,人工智能算法会犯下致命的错误,具体取决于应用。

更具体地说,自动驾驶汽车的计算机视觉系统中的错误可能导致撞车,而在医疗领域,人类的生命取决于这些决策。

大多数机器学习模型表现为黑匣子。

大多数机器学习模型表现为黑匣子。

为了解决上述问题,已经开发了大量方法。为此,可解释人工智能(XAI)已成为机器学习界的热门研究课题。

这些方法旨在提供人类容易理解的机器深度学习模型的解释。

旨在提供人类容易理解的机器深度学习模型的解释

深度学习与可解释模型的比较。

深度学习与可解释模型的比较。

可解释性的类别

可解释性定义了我们理解算法产生决策原因的难易程度。

可解释性定义了我们理解算法产生决策原因的难易程度。

对可解释性方法的分类基于解释信息的提供方式。

在本文中,将讨论以下类别:

    视觉可解释性方法:视觉解释和图表以文本形式给出的文本解释数学或数值解释

视觉解释

显著性图