机器学习从业者通常对其产品的道德方面持矛盾态度。我们相信,任何能使我们从当前状态转变为我们的系统实现一定程度公平的事物都是值得欢迎的改进。即使这种进步不能使我们 100% 地实现“完全”公平的目标,或与我们个人对使用公平衡量标准的看法完全一致,情况也是如此。构建实施了一定程度公平性的系统仍将使我们处于比现状更好的位置,因为这样可以增加足够关心问题的系统数量,从而投入精力进行补救。应避免在实际应用中应用公平和道德问题的障碍,无论是深奥的哲学辩论还是技术开销,例如引入越来越多的超参数。在本文中,我们进一步阐述了我们对这一观点的论证及其重要性。
开发负责任的 AI 解决方案是一个过程,涉及在 ML 生命周期的所有阶段与关键利益相关者(包括产品、政策、法律、工程和 AI/ML 团队以及最终用户和社区)的意见和讨论。在本文中,我们主要关注 ML 生命周期中用于解决偏见和可解释性的技术工具。我们还提供了一个简短的部分,介绍了使用 AI 实现公平性和可解释性的局限性和最佳实践。
本文献综述对信用评分模型的公平性评估有关保留不足人群的抵押贷款可及性的公平性。审查审查了各种学术文章,报告和实证研究,这些研究涵盖了各种学科,包括金融,经济学,社会学和公共政策。它研究了现有研究的方法,发现和局限性,以阐明信用评分公平性的多方面维度及其对抵押贷款可及性的影响。首先,审查概述了信用评分公平性的概念框架,强调了平等,透明度和问责制在信用评估过程中的重要性。它探讨了信用评分模型的演变及其对抵押贷款实践的影响,尤其是对于历史上边缘化的社区,例如少数群体,低收入家庭和信用历史有限的个人。其次,审查分析了评估信用评分模型公平性时采用的方法。它标识了用于评估人口统计群体中抵押贷款批准率,利率和贷款条款差异的关键指标和统计技术。第三,审查综合了关于保留不足人群抵押可及性差异的程度和持久性的经验证据。它突出了系统性障碍,包括歧视性贷款实践,嵌入信用评分模型中的偏红线和制度化的偏见。第四,审查讨论了信用评分公平性对金融包容性,社会公平和经济流动性的影响。它强调了对创新政策干预,行业最佳实践和消费者教育计划的需求,以解决抵押贷款贷款中的系统性不平等,并促进包容性的房屋拥有机会,以使保留不足的不足之处,最后,本文献综述提供了对信用评分模型的公平概述,这些概述是在保留不足的人口范围内的抵押贷款范围内的信用评分模型。通过综合经验证据,理论框架和政策影响,它有助于更深入地了解所有人促进公平获得房屋所有权和财务安全的挑战和机遇。
残疾或感到自在。根据法律,员工有权确定有残疾或不识别残疾。但是,根据《 2010年平等法》,“残疾”的法律定义意味着神经化工人可以满足条件;并免受工作中的歧视。这是逐案。
维多利亚港致力于采用多元化、公平和包容性行动计划,并投入必要的资源来实施、监测、评估和报告该计划。最终,所有员工都将在日常文化、价值观和实践中实施 DEIAP。将建立适当的系统来收集和报告衡量进展所需的数据水平。这将确保根据《2020 年性别平等法》所要求的性别平等和交叉特征原则,可靠地报告劳动力参与和经验的统计数据和评论。
疫苗公平诊所继续补充费尔法克斯县 300 多个其他地点提供的疫苗。诊所继续在斯普林菲尔德市中心和临时地点(包括公寓大楼和礼拜堂)提供服务。在儿科疫苗接种建议出台之前,这些诊所提供初始疫苗接种系列和加强剂量。在儿科建议出台后,许多公平诊所转而只提供儿科疫苗,以降低注射错误剂量的风险(即儿童接种成人剂量或反之亦然)。此外,在儿科建议出台后的前几周,疫苗接种仅通过预约进行,因为这个年龄段的需求较高,需要确保所有预约的人都获得足够的剂量。最近,由于冬季需要在室内进行,诊所中非医疗角色的志愿者工作人员减少,以及新开始接种疫苗的成年人数量减少,公平诊所的数量有所减少,所有这些都是在许多其他疫苗接种点以及向这些地点进行宣传和导航的背景下发生的。
抽象的亚符号方法,例如机器学习(ML),深度学习和大型语言模型(LLMS)具有明显的高级人工智能,在问题回答和本体论匹配等任务中都表现出色。尽管他们成功了,但LLMS培训数据集和源代码中缺乏开放性带来了挑战。例如,一些基于ML的模型不共享培训数据,从而限制了透明度。诸如schema.org之类的当前标准为数据集和软件元数据提供了一个框架,但缺乏ML特定指南。该立场论文通过提出与公平(可发现性,可访问性,互操作性,可重复使用性)原理相一致的ML模型元数据的全面模式来解决这一差距。我们旨在提供有关ML模型必不可少的元数据格式的必要性,展示其集成到ML存储库平台中的必要性,并展示该模式与数据集元数据结合在一起,可以评估ML模型对公平原理,促进ML开发中的公平性。
随着我们日常生活中人工智能(AI)系统和应用的广泛使用,对公平性的解释在设计和工程中的公平性上已经获得了重要的重要性。AI系统可在许多敏感环境中使用,以做出重要且改变生活的决定;因此,至关重要的是要确保这些决定不会反映对某些群体或人群的歧视行为。最近在传统的机器学习和深度学习中开发了一些工作,这些工作解决了不同子域中的此类挑战。随着这些系统的商业化,研究人员更加意识到这些应用程序可以包含并试图解决这些应用程序的偏见。在这项调查中,我们研究了以各种方式显示偏见的不同现实世界应用程序,并列出了可能影响AI应用程序的不同来源。然后,我们为机器学习研究人员所定义的公平性划分创建了一个分类法,以避免AI系统中的现有偏见。除此之外,我们还检查了AI中的不同领域和子域,展示了研究人员对最先进方法中不公平结果的观察到了什么以及他们试图解决这些问题的方式。仍然可以采取许多未来的方向和解决方案来减轻AI系统中的偏见问题。我们希望这项调查能够通过观察各自领域的现有工作来激励研究人员在不久的将来解决这些问题。
摘要 本章主张采用结构性不公正方法来治理人工智能。结构性不公正包括分析和评价两个部分。分析部分包括社会科学中众所周知的结构性解释。评价部分是一种正义理论。结构性不公正是一个强大的概念工具,它使研究人员和从业者能够识别、表达甚至预测人工智能偏见。本章以人工智能中因结构性不公正而产生的种族偏见为例。然后,本章介绍了哲学家 Iris Marion Young 提出的结构性不公正概念。此外,本章还认为结构性不公正非常适合作为一种人工智能治理方法,并将这种方法与从危害和利益分析或价值陈述开始的替代方法进行了比较。本章表明,结构性不公正为多样性、公平和包容性的价值观和关注提供了方法论和规范基础。本章最后对“结构”和责任的概念进行了展望。结构的概念是正义的核心。一个开放的理论研究问题是人工智能本身在多大程度上是社会结构的一部分。最后,责任的实践是结构性不公正的核心。即使他们不能对结构性不公正的存在负责,每个人和每个组织都有责任在未来解决结构性不公正问题。
问题陈述:人工智能公平性规则和基准的标准化具有挑战性,因为人工智能公平性和其他道德要求取决于多种因素,例如背景、用例、人工智能系统的类型等。在本文中,我们阐述了人工智能系统在其生命周期的每个阶段(从开始到使用)都容易产生偏见,并且所有阶段都需要给予应有的关注以减轻人工智能偏见。我们需要一种标准化的方法来处理每个阶段的人工智能公平性。差距分析:虽然人工智能公平性是一个热门的研究课题,但普遍缺乏人工智能公平性的整体策略。大多数研究人员只关注人工智能模型构建的几个方面。同行评审显示过度关注数据集中的偏见、公平性指标和算法偏见。在此过程中,影响人工智能公平性的其他方面被忽略了。提出的解决方案:我们提出了一种新颖的七层模型形式的综合方法,该模型受到开放系统互连 (OSI) 模型的启发,旨在标准化 AI 公平性处理。尽管各个方面存在差异,但大多数 AI 系统都有类似的模型构建阶段。提出的模型将 AI 系统生命周期分为七个抽象层,每个抽象层对应一个明确定义的 AI 模型构建或使用阶段。我们还为每一层提供了检查表,并讨论了每一层中潜在的偏见来源及其缓解方法。这项工作将促进 AI 公平规则和基准测试参数的分层标准化。