软件工程可解释人工智能的系统文献综述
机构名称:
¥ 2.0

背景:近年来,在研究 (ML4SE) 中,利用机器学习 (ML) 技术已成为解决许多软件工程 (SE) 任务的主要解决方案之一。这是通过利用往往更复杂和黑盒化的最先进模型实现的,这导致了可解释性较差的解决方案,从而降低了行业专业人士对 ML4SE 解决方案的信任和接受度。目标:一种潜在的补救措施是提供可解释的人工智能 (XAI) 方法来提供缺失的可解释性。在本文中,我们旨在探索 SE 社区 (XAI4SE) 对 XAI 的研究程度,并全面了解当前的最新技术以及未来工作的挑战和路线图。方法:我们对 XAI4SE 中 24 项最相关的已发表研究(通过关键字搜索选出的 869 项主要研究中)进行了系统的文献综述。我们有三个研究问题,通过对每篇论文收集的数据进行元分析来回答。结果:我们的研究表明,在已确定的研究中,软件维护(%68)和缺陷预测在所研究的 SE 阶段和任务中所占的比例最高。此外,我们发现 XAI 方法主要应用于经典 ML 模型,而不是更复杂的模型。我们还注意到文献中明显缺乏对 XAI 方法的标准评估指标,这导致研究人员感到困惑,并且缺乏比较基准。结论:大多数研究都认为 XAI 是一种有用的工具,我们在系统综述中对此进行了介绍。然而,XAI4SE 是一个相对较新的领域,具有许多未开发的潜力,包括需要帮助的 SE 任务、需要解释的 ML4SE 方法以及需要提供的解释类型。这项研究鼓励研究人员致力于本文中报告的已确定的挑战和路线图。

软件工程可解释人工智能的系统文献综述

软件工程可解释人工智能的系统文献综述PDF文件第1页

软件工程可解释人工智能的系统文献综述PDF文件第2页

软件工程可解释人工智能的系统文献综述PDF文件第3页

软件工程可解释人工智能的系统文献综述PDF文件第4页

软件工程可解释人工智能的系统文献综述PDF文件第5页

相关文件推荐