银行和金融科技贷方越来越多地依靠计算机辅助模型在贷款决策中。传统模型是可以解释的:决策是基于可观察的因素,例如借款人的信用评分是否高于阈值,并且可以用这些因素的组合来解释。相比之下,现代机器学习模型是不透明的且不可解剖的。他们对过去种族歧视的人工制品的不透明和依赖历史数据意味着这些新模型有可能嵌入并加剧这种歧视,即使贷方不打算歧视。我们使用公开可用的HMDA贷款数据和公开可用的Fannie Mae贷款绩效数据来校准两个随机的森林分类器。我们使用两种可解释的人工智能(XAI)模型,即石灰和塑形,以表征哪些功能驱动这些校准的ML贷款模型产生的决策。我们的初步发现表明,当模型访问此类信息时,各种种族因素在模型中的决策过程中产生了重大影响,如接受HMDA数据培训的模型所示。这些结果突出了需要进一步研究以深入了解和解决这些影响的必要性。
在不同训练的模型之间预测的差异是公平二进制分类中的重要,爆炸率不足的错误源。实际上,某些数据示例的差异是如此之大,以至于决策可以有效任意。为了调查这个问题,我们采用了一种实验方法,并做出了四个总体贡献。WE:1)定义一个称为自矛盾的度量,源自差异,我们将其用作衡量和降低任意性的代理; 2)开发一种结合算法,即预测是任意的时弃权分类的; 3)对公平二进制分类中方差(相对于自愿和任意性)的作用(相对于自愿和任意性)的作用进行最大的实证研究;以及4)释放一种工具包,该工具包使《美国房屋抵押贷款披露法》(HMDA)数据集易于用于未来的研究。总的来说,我们的实验揭示了关于基准数据集上结论的可靠性的令人震惊的见解。在考虑预测中存在的任意性数量时,最公平的二进制分类台 - 在我们甚至尝试采用任何公平干预措施之前。这一发现质疑了常见算法公平方法的实际实用性,进而表明我们应该重新考虑如何选择如何测量二进制分类中的公平性。