摘要:随着机器学习模型的性能和复杂性在过去几年中显著增长,开发描述其行为的方法的需求也日益增加。这种需求主要是由于黑盒模型的广泛使用而产生的,黑盒模型即高性能模型,其内部逻辑难以描述和理解。因此,机器学习和人工智能领域面临着一个新的挑战:通过适当的技术使模型更易于解释。可解释性方法的最终目标是忠实地向用户描述(黑盒)模型的行为,使用户能够更好地理解其逻辑,从而增加对系统的信任和接受度。不幸的是,最先进的可解释性方法可能不足以确保从人类角度完全理解解释。因此,人机交互方法已被广泛用于增强和/或评估机器学习模型的解释。这些方法侧重于收集人类知识,然后人工智能系统可以使用这些知识或让人类参与其中以实现其目标(例如,评估或改进系统)。本文旨在概述通过人机交互方法收集和使用人类知识来改善和评估机器学习模型的可理解性的文献。此外,本文还讨论了可解释性方面的挑战、最新进展和未来趋势。
主要关键词