Loading...
机构名称:
¥ 16.0

随着人工智能 (AI) 的不断进步和金融科技的热情高涨,信用评分等应用引起了学术界的广泛兴趣。信用评分是一种帮助金融专家更好地决定是否接受贷款申请的方法,这样违约概率高的贷款就不会被接受。表现良好的信用评分模型能够区分更有可能违约的贷款申请和不太可能违约的贷款申请,这是非常有益的,因为它们减少了贷款审批流程所需的时间,并可以节省大量成本。除了此类信用评分模型面临的嘈杂和高度不平衡的数据挑战之外,最近出台的法规,例如《通用数据保护条例》(GDPR) 和《平等信贷机会法》(ECOA) 引入的“解释权”,也增加了对模型可解释性的需求,以确保算法决策是可以理解和连贯的。因此,这要求黑盒机器学习 (ML) 模型(如 ANN 和 XGBoost)不仅在分类性能上准确,还必须能够解释它们的预测,以便金融专家愿意信任和采用这样的模型。最近提出的一个有趣概念是可解释的人工智能 (XAI),其重点是使黑盒模型更具可解释性和可说明性。多年来,已经提出了多种旨在通过规则或视觉说明来解释 ML 算法预测的 XAI 方法,其中一些是本质上可解释的模型,而另一些是事后可解释性技术。在这项工作中,我们旨在提出一种既准确又可解释的信用评分模型,并且总体上比 Dash 等人 (2018) 提出的最先进的基准通过列生成布尔规则 (BRCG) 方法更好;Dash 等人是 FICO 最新的可解释机器学习挑战赛的获胜者。本工作中进行的实验表明,最先进的 XGBoost 模型比逻辑回归 (LR)、决策树 (DT)、随机森林 (RF) 和人工神经网络 (ANN) 技术以及基准 BRCG 模型表现更好,在 HELOC 数据集上的 ROC 曲线下面积 (AUROC) 为 0.78,在 Lending Club 数据集上的 AUROC 为 0.71。XGBoost 模型通过三种 XAI 技术得到进一步增强;SHAP+GIRP 提供全局解释,Anchors 提供基于局部特征的解释,ProtoDash 提供基于局部实例的解释。这三种类型的解释为可解释性提供了全面的解决方案,因为不同的人在不同情况下需要不同的解释。通过使用功能基础(即通过形式化措施评估)、应用基础(即由人类专家评估)和人为基础(即通过对文献的分析(通常由普通人评估)表明,所提供的解释简单、一致、完整,并且满足了正确性、有效性、易理解性、细节充分性和可信度等六项预定假设。

可解释的人工智能助力可解释的信用评分

可解释的人工智能助力可解释的信用评分PDF文件第1页

可解释的人工智能助力可解释的信用评分PDF文件第2页

可解释的人工智能助力可解释的信用评分PDF文件第3页

可解释的人工智能助力可解释的信用评分PDF文件第4页

可解释的人工智能助力可解释的信用评分PDF文件第5页