Loading...
机构名称:
¥ 1.0

银行和金融科技贷方越来越多地依靠计算机辅助模型在贷款决策中。传统模型是可以解释的:决策是基于可观察的因素,例如借款人的信用评分是否高于阈值,并且可以用这些因素的组合来解释。相比之下,现代机器学习模型是不透明的且不可解剖的。他们对过去种族歧视的人工制品的不透明和依赖历史数据意味着这些新模型有可能嵌入并加剧这种歧视,即使贷方不打算歧视。我们使用公开可用的HMDA贷款数据和公开可用的Fannie Mae贷款绩效数据来校准两个随机的森林分类器。我们使用两种可解释的人工智能(XAI)模型,即石灰和塑形,以表征哪些功能驱动这些校准的ML贷款模型产生的决策。我们的初步发现表明,当模型访问此类信息时,各种种族因素在模型中的决策过程中产生了重大影响,如接受HMDA数据培训的模型所示。这些结果突出了需要进一步研究以深入了解和解决这些影响的必要性。

调查抵押贷款率机器学习模型中的偏见

调查抵押贷款率机器学习模型中的偏见PDF文件第1页

调查抵押贷款率机器学习模型中的偏见PDF文件第2页

调查抵押贷款率机器学习模型中的偏见PDF文件第3页

调查抵押贷款率机器学习模型中的偏见PDF文件第4页

调查抵押贷款率机器学习模型中的偏见PDF文件第5页

相关文件推荐