本文献综述对信用评分模型的公平性评估有关保留不足人群的抵押贷款可及性的公平性。审查审查了各种学术文章,报告和实证研究,这些研究涵盖了各种学科,包括金融,经济学,社会学和公共政策。它研究了现有研究的方法,发现和局限性,以阐明信用评分公平性的多方面维度及其对抵押贷款可及性的影响。首先,审查概述了信用评分公平性的概念框架,强调了平等,透明度和问责制在信用评估过程中的重要性。它探讨了信用评分模型的演变及其对抵押贷款实践的影响,尤其是对于历史上边缘化的社区,例如少数群体,低收入家庭和信用历史有限的个人。其次,审查分析了评估信用评分模型公平性时采用的方法。它标识了用于评估人口统计群体中抵押贷款批准率,利率和贷款条款差异的关键指标和统计技术。第三,审查综合了关于保留不足人群抵押可及性差异的程度和持久性的经验证据。它突出了系统性障碍,包括歧视性贷款实践,嵌入信用评分模型中的偏红线和制度化的偏见。第四,审查讨论了信用评分公平性对金融包容性,社会公平和经济流动性的影响。它强调了对创新政策干预,行业最佳实践和消费者教育计划的需求,以解决抵押贷款贷款中的系统性不平等,并促进包容性的房屋拥有机会,以使保留不足的不足之处,最后,本文献综述提供了对信用评分模型的公平概述,这些概述是在保留不足的人口范围内的抵押贷款范围内的信用评分模型。通过综合经验证据,理论框架和政策影响,它有助于更深入地了解所有人促进公平获得房屋所有权和财务安全的挑战和机遇。
抽象的亚符号方法,例如机器学习(ML),深度学习和大型语言模型(LLMS)具有明显的高级人工智能,在问题回答和本体论匹配等任务中都表现出色。尽管他们成功了,但LLMS培训数据集和源代码中缺乏开放性带来了挑战。例如,一些基于ML的模型不共享培训数据,从而限制了透明度。诸如schema.org之类的当前标准为数据集和软件元数据提供了一个框架,但缺乏ML特定指南。该立场论文通过提出与公平(可发现性,可访问性,互操作性,可重复使用性)原理相一致的ML模型元数据的全面模式来解决这一差距。我们旨在提供有关ML模型必不可少的元数据格式的必要性,展示其集成到ML存储库平台中的必要性,并展示该模式与数据集元数据结合在一起,可以评估ML模型对公平原理,促进ML开发中的公平性。
本文研究如何在电力市场中聚合产消者(或大消费者)及其集体决策,重点关注公平性。公平性对于产消者参与聚合方案至关重要。一些产消者可能无法直接进入能源市场,即使这对他们有利。因此,新公司提出聚合他们并承诺公平对待他们。这导致了公平的资源分配问题。我们建议使用可接受性约束来保证每个产消者都能从聚合中获益。此外,我们的目标是公平地分配成本和收益,同时考虑到问题的多周期和不确定性。我们不是使用财务机制来调整公平问题,而是专注于决策问题中的各种目标和约束,通过设计实现公平。我们从一个简单的单周期和确定性模型开始,然后使用随机支配约束等将其推广到动态和随机设置。
在本文中,我们研究了有关预测算法的多组公平性的最新文献与图理论,计算复杂性,加性组合学,信息理论和密码学的先前知名结果。我们的出发点是多基金和多核电的定义,它们已确立为算法公平的数学衡量标准。多核算可以确保可以在指定的计算类别中识别的每个子群的准确(校准)预测,而多辅助性是一个严格的较弱的概念,仅保证了平均准确性。构建多循环预测变量的任务与众所周知的规则性引理密切相关,这是计算复杂性的较旧结果。这是一个中心定理,在不同领域具有许多重要的含义,包括图理论中的弱Szemerédi规律性引理,Impagliazzo在复杂性理论中的硬核引理,附加组合中的密集模型定理,在信息理论中的计算类似物和弱点的计算类似物中,以及零time的计算类似物。因此,多环境与规律性引理之间的关系意味着多辅助预测指标可以证明所有这些基本定理。通过形式化此观察结果,我们然后问:如果我们从多校准的预测指标开始,那么我们将获得这些基本定理的加强和更一般版本?此外,在此过程中,我们提出了所有这些基本定理的统一方法。通过多组公平的镜头,我们能够将多核电的概念投入到复杂性理论的领域,并获得Impagliazzo的硬核引理的更强大,更一般的版本,对假元素的表征,以及密集的模型定理。
数字劳动平台上的摘要,算法执行一系列决定,包括工作作业,绩效评估等。尽管算法决策是平台工作的关键特征,但我们对人们如何看待算法做出的决策(尤其是在其过程和结果的公平性方面)的理解仍然不足。这种看法对工作满意度和感知到的组织支持(POS)的影响仍在探索中,一些学者挑战了瞬态平台工人之间的POS可能性。在本文中,我们探讨了在算法管理的范式背景下运行的算法的感知过程和分布公平性的影响,即Uber。利用组织正义理论以及对435个Uber驱动因素的调查,我们不仅发现独立的平台工作人员可以体验POS,而且管理算法的公平性(尤其是他们的结果)可以在刺激此类看法中发挥关键作用。
统计歧视(例如,参见Baldus和Cole,1980年):根据群体级统计平均值而不是其个体特征,对个人进行了不同的对待。它们不是源于偏见或偏见,而是由于依赖不完美信息并将小组成员身份作为单个特征的代理而产生的。某些形式的歧视被认为是不可接受的(Hellman,2008)。Fisher(1936):根据测量特征将观测值分开或分类为不同的组。在这种情况下,歧视纯粹是一个统计操作,没有社会偏见或不平等的含义。但是,统计歧视可能导致:
随着我们日常生活中人工智能(AI)系统和应用的广泛使用,对公平性的解释在设计和工程中的公平性上已经获得了重要的重要性。AI系统可在许多敏感环境中使用,以做出重要且改变生活的决定;因此,至关重要的是要确保这些决定不会反映对某些群体或人群的歧视行为。最近在传统的机器学习和深度学习中开发了一些工作,这些工作解决了不同子域中的此类挑战。随着这些系统的商业化,研究人员更加意识到这些应用程序可以包含并试图解决这些应用程序的偏见。在这项调查中,我们研究了以各种方式显示偏见的不同现实世界应用程序,并列出了可能影响AI应用程序的不同来源。然后,我们为机器学习研究人员所定义的公平性划分创建了一个分类法,以避免AI系统中的现有偏见。除此之外,我们还检查了AI中的不同领域和子域,展示了研究人员对最先进方法中不公平结果的观察到了什么以及他们试图解决这些问题的方式。仍然可以采取许多未来的方向和解决方案来减轻AI系统中的偏见问题。我们希望这项调查能够通过观察各自领域的现有工作来激励研究人员在不久的将来解决这些问题。
在分配变化下有监督的公平感知机器学习是一个新兴领域,在面对从源到目标域的数据分布的变化时,面临着保持公平和公正预测的挑战。在实际应用程序中,机器学习模型通常在特定数据集上进行培训,但在数据分布可能由于各种因素而可能随时间变化的环境中进行培训。这种转变会导致不公平的预测,对某些以敏感属性(例如种族和性别)为特征的群体不成比例。在本调查中,我们提供了各种类型的分布变化的摘要,并根据这些转变进行了全面研究现有方法,突出了文献中六种常用的方法。另外,该调查列出了公开可用的数据集和经验研究的评估指标。我们进一步探讨了与相关的搜索领域的互连,讨论重大挑战,并确定未来研究的潜在方向。
Yap Jia Qing* 和 Ernest Lim** 摘要。需要清楚了解人工智能 (AI) 的使用风险及其应对方法,这需要适当且充分的企业披露。我们提出了一个人工智能公平性报告的法律框架,公司可以并且应该在遵守或解释的基础上遵守该框架。我们分析了人工智能模型不同方面产生的不公平根源以及机器学习系统性能的差异。我们评估了机器学习文献如何通过使用不同的公平性指标来解决不公平问题。然后,我们提出了一个细致入微且可行的人工智能公平性报告框架,包括:(a) 披露所有机器学习模型的使用情况;(b) 披露所使用的公平性指标及其随后的权衡;(c) 披露所使用的去偏见方法;(d) 发布数据集供公众检查或第三方审计。然后,我们将该报告框架应用于两个案例研究。关键词:人工智能、机器学习、公平、歧视、披露、报告、公司、法律和技术、股东、利益相关者、GDPR。