一名未婚女性与当地贷款机构之间存在持续的信贷安排。一段时间后,在该女性结婚后,贷款机构通知她,由于她的新婚姻状况,她必须重新申请才能继续使用现有信贷。此外,新的申请必须以她丈夫的名义提交,妻子贡献的任何收入——即使她的收入高于丈夫——也可能不予考虑。如果该女性与丈夫分居并离婚,该信贷账户将保留在他的名下。她必须申请一个新的信贷账户,但她的申请将因离婚身份而受到处罚。即使什么都没有改变,如果她从事相同的工作,获得相同的薪水,没有其他受抚养的孩子,也没有新的财务义务,她可能无法获得与结婚前相同的信贷安排。
除了这些决定外,Medable还寻求其患者护理人员网络(PCN)的观点,他们帮助设计了一个由两部分组成的入职过程,该过程使参与者在试验开始之前熟悉Medable的应用程序。此入职过程与员工现场完成,以确保其工作正常,并且参与者可以舒适地完成任务。
通过技术专家、审查人员、律师和经济学家之间的合作,CFPB 能够全面审查整个信贷决策过程,包括实体使用的复杂信贷承保模型是否符合相关法律。例如,如下所述,在某些审查中,CFPB 的跨学科团队确定了潜在的替代信贷模型,这些模型似乎能够有效减少禁止的基础差异,同时保持与债权人使用的模型相当的预测准确性。如下所述,为确保遵守联邦消费者金融法,包括《平等信贷机会法案》(ECOA)4,审查人员已指示机构在适当情况下考虑一系列歧视性较小的模型,并实施这些模型以应对非法歧视的风险。例如,这包括考虑通过自动测试生成的替代模型。
好消息是,虽然人工智能和机器学习技术的复杂性是新事物,但自动决策却并非如此,而且我们联邦贸易委员会在应对使用数据和算法为消费者做出决策所带来的挑战方面拥有丰富的经验。多年来,联邦贸易委员会提起了许多指控我们执行的涉及人工智能和自动决策的法律违反的案件,并调查了该领域的许多公司。例如,1970 年颁布的《公平信用报告法》(FCRA)和 1974 年颁布的《平等信用机会法》(ECOA)都涉及自动决策,金融服务公司几十年来一直在将这些法律应用于基于机器的信用承保模型。我们还利用我们的联邦贸易委员会法案权力禁止不公平和欺骗性的做法,以解决因使用人工智能和自动决策而对消费者造成的伤害。
申请 申请是以口头或书面形式请求延长以 1-4 户住宅物业为抵押的信贷期限的申请。报告中不包括任何商业/业务/投资目的的抵押。包括导致信贷被拒的问询或资格预审请求。使用的申请日期为 (1) 借款人签名的初始 1003 表上的日期;(2) 口头请求延长信贷期限的日期,以初始 1003 表为准;(3) 问询和资格预审请求若被拒绝,应使用拒绝日期。被视为 NMLS MCR 申请的请求示例包括但不限于购买自住 1-4 户住宅物业,包括第二套住房和度假屋;直接向消费者建造 1-4 户住宅物业(如上所述);住宅物业上的非商业留置权(信用额度应按最高批准信用额度报告);即使尚未确定住宅物业,也可以对第 1 项进行预先批准;反向抵押贷款 – 无论用途如何;对以上所有贷款进行再融资;所有用于购买住宅物业的信贷延期请求均导致签发 ECOA 通知。
关于抵押贷款行业 AI 的误解和事实 误解:AI 是抵押贷款行业最近采用的一项新技术。 事实:几十年来,抵押贷款行业一直在安全有效地使用 AI。 人工智能 (AI) 有很多种,但对于如何定义 AI 尚无共识。然而,一些州已经开始努力规范 AI,并将 AI 广泛定义为“任何基于机器的系统,为了任何明确或隐含的目标,从系统收到的输入中推断如何生成输出……可以影响物理或虚拟环境。” 1 此定义涵盖了最新形式的 AI,例如机器学习、大型语言模型和其他“生成性”AI(例如聊天 GPT),但它也涵盖了较旧的技术,例如基于计算机算法的工具。这个广义的定义包括许多已使用数十年的广为接受的技术。贷方依靠联邦政府和政府支持的企业 (GSE) 开发的 AI 来做出贷款决策或确定贷款是否有资格获得担保。这些自动承保系统 (AUS) 由联邦住房管理局、房利美和房地美开发和维护。例如,桌面承保人 (DU) 和贷款勘探顾问 (LPA) 由政府支持企业开发和控制,而退伍军人管理局 (VA) 和联邦住房管理局 (FHA) 的住房和城市发展部 (HUD) 有自己的要求和认证来批准供应商 AUS。此外,贷方依靠 FICO 制作的信用评分模型来为这些贷款决策和定价提供信息。误区:使用人工智能指导贷款决策将加剧住房不平等。事实:有法律保障措施可以防止算法歧视。与任何工具一样,人工智能的效果取决于用户如何开发和部署它。然而,在许多情况下,人工智能通过中立地评估借款人而不考虑受保护的特征来帮助减少住房系统中的偏见。消费者金融部颁布的《平等信贷机会法》(ECOA) 及其实施条例减轻了人工智能或算法歧视在消费者金融中的风险
随着人工智能 (AI) 的不断进步和金融科技的热情高涨,信用评分等应用引起了学术界的广泛兴趣。信用评分是一种帮助金融专家更好地决定是否接受贷款申请的方法,这样违约概率高的贷款就不会被接受。表现良好的信用评分模型能够区分更有可能违约的贷款申请和不太可能违约的贷款申请,这是非常有益的,因为它们减少了贷款审批流程所需的时间,并可以节省大量成本。除了此类信用评分模型面临的嘈杂和高度不平衡的数据挑战之外,最近出台的法规,例如《通用数据保护条例》(GDPR) 和《平等信贷机会法》(ECOA) 引入的“解释权”,也增加了对模型可解释性的需求,以确保算法决策是可以理解和连贯的。因此,这要求黑盒机器学习 (ML) 模型(如 ANN 和 XGBoost)不仅在分类性能上准确,还必须能够解释它们的预测,以便金融专家愿意信任和采用这样的模型。最近提出的一个有趣概念是可解释的人工智能 (XAI),其重点是使黑盒模型更具可解释性和可说明性。多年来,已经提出了多种旨在通过规则或视觉说明来解释 ML 算法预测的 XAI 方法,其中一些是本质上可解释的模型,而另一些是事后可解释性技术。在这项工作中,我们旨在提出一种既准确又可解释的信用评分模型,并且总体上比 Dash 等人 (2018) 提出的最先进的基准通过列生成布尔规则 (BRCG) 方法更好;Dash 等人是 FICO 最新的可解释机器学习挑战赛的获胜者。本工作中进行的实验表明,最先进的 XGBoost 模型比逻辑回归 (LR)、决策树 (DT)、随机森林 (RF) 和人工神经网络 (ANN) 技术以及基准 BRCG 模型表现更好,在 HELOC 数据集上的 ROC 曲线下面积 (AUROC) 为 0.78,在 Lending Club 数据集上的 AUROC 为 0.71。XGBoost 模型通过三种 XAI 技术得到进一步增强;SHAP+GIRP 提供全局解释,Anchors 提供基于局部特征的解释,ProtoDash 提供基于局部实例的解释。这三种类型的解释为可解释性提供了全面的解决方案,因为不同的人在不同情况下需要不同的解释。通过使用功能基础(即通过形式化措施评估)、应用基础(即由人类专家评估)和人为基础(即通过对文献的分析(通常由普通人评估)表明,所提供的解释简单、一致、完整,并且满足了正确性、有效性、易理解性、细节充分性和可信度等六项预定假设。