自动化决策系统越来越多地用于我们的日常生活中,例如在贷款,保险和医疗服务的背景下。一个挑战是,这些决策系统可以证明对弱势群体的歧视(Dwork等,2012)。为了减轻此问题,已经提出了公平的限制(Hardt等,2016; Dwork等,2012),例如寻求实现某些统计奇偶校验属性。尽管公平的机器学习已经进行了广泛的研究,但大多数工作都考虑了静态设置,而无需考虑决策的顺序反馈效果。同时,算法决定可能会通过与社会的反馈循环来改变数据中基本统计模式的变化。反过来,这会影响决策过程;
做出公平的决策对于在社会环境中合乎道德地实施机器学习算法至关重要。在这项工作中,我们考虑了著名的反事实公平定义。我们首先证明,满足反事实公平的算法也满足人口均等性,这是一个更简单的公平约束。同样,我们表明,所有满足人口均等性的算法都可以通过简单的修改来满足反事实公平性。总之,我们的结果表明,反事实公平性基本等同于人口均等性,这对于日益增多的反事实公平性研究具有重要意义。我们通过实证验证了我们的理论发现,根据三个简单的基准分析了三种现有的反事实公平算法。我们发现,在多个数据集上,两种简单的基准算法在公平性、准确性和效率方面都优于所有三种现有算法。我们的分析使我们正式确定了一个具体的公平目标:维护受保护群体内个人的秩序。我们相信,受保护组中个体的透明排序能够使公平算法更加可信。从设计上来说,两个简单的基准算法满足了这一目标,而现有的反事实公平算法则未能满足这一目标。
随着人工智能(AI)的辅助搜索和推荐的系统在工作场所和日常生活中变得无处不在,对公平性的理解和核算在此类系统的设计和评估中引起了人们的关注。虽然越来越多的计算研究对测量系统的公平性和与数据和算法相关的偏见,但人类偏见超出了传统机器学习(ML)管道的影响仍在研究中。在此观点论文中,我们试图开发一个双面公平框架,不仅表征了数据和算法偏见,而且还突出了可能加剧系统偏见并导致不公平决定的认知和感知偏见。在框架内,我们还分析了搜索和接收性发作中人类和系统偏见之间的相互作用。基于双面框架,我们的研究综合了在认知和算法中采用的干预策略,并提出了新的目标和措施,以评估Sys-Tems在解决以及与数据相关的风险相关的偏见,Algoryty和Algority and Boundered and Boundered Rationals and boundered Rationals and Indered Rationals and Indered Rationals and Indered Rationals and Indered Rationals and Indered Rationals and Indered rentations。这是唯一地将有关人类偏见和系统偏见的见解纳入一个凝聚力的框架,并从以人为中心的角度扩展了公平的概念。扩展的公平框架更好地反映了用户与搜索和推荐系统的相互作用的挑战和机遇。采用双面信息系统设计中的方法有可能提高在线偏见的有效性,以及对参与信息密集型决策的有限理性用户的有用性。
第七章禁止基于性别、怀孕或其他受保护类别的就业歧视(由美国执行平等就业机会委员会 (EEOC)) ADA 禁止基于残疾的就业歧视(由 EEOC 执行) 家庭和医疗休假法案为某些工人提供怀孕和与新生儿建立亲密关系的无薪假期(由美国劳工部执行) PUMP 法案为哺乳母亲提供在工作中吸奶的时间和私人场所(由美国劳工部执行)
建议的引用:凯勒(Keller),伯特(Birte); Lünich,Marco; Marcinkowski,Frank(2022):社会负责的学习成绩预测如何?从一个感知的AI公平概念中洞悉。在费尔南多·阿尔玛拉兹·马纳德斯(Fernando Almaraz-Menéndez),亚历山大·马兹·马卡多(Alexander Maz-Machado),卡门·洛佩兹(CarmenLópez-Esteban),克里斯蒂娜·阿尔玛拉兹·洛佩斯(Cristina almaraz-lópez)(eds。):高等教育机构中AI的战略,政策,实践和治理:IGI全球(高等教育和专业发展的进步),pp。126-155。doi:10.4018/978-1-7998-9247-2.CH006。
摘要作为越来越多的人工智能(AI)系统在我们的日常生活中根深蒂固,至关重要的是,它们是公平和值得信赖的。不幸的是,预测性警务系统通常不是这种情况,在这种情况下,对年龄以及种族和性别存在偏见,导致许多人被错误地标记为犯罪的可能性。在已经因其对少数群体的不公正待遇而受到批评的系统中,找到减轻这种负面趋势的方法至关重要。在这项工作中,我们探索并评估了预测性警务系统中域知识的输液,以最大程度地减少普遍的公平问题。实验结果表明,所有专业阶级的所有指标中的公平性表明,通过减少人们的不公平警务,将更多的信任带入了预测性警务系统。
认为他们的风险低于白人被告的风险。ProPublica 认为这存在很大问题,因为在这一应用领域的错误决策会对被告的生活产生重大影响,可能影响他们提前获释的前景、缓刑条件或保释金额(Angwin 等人,2016 年)。这个来自刑事司法领域的例子表明,歧视不仅是人类的问题,也是算法决策的问题。在考虑机器学习算法时,算法公平性尤其有趣,因为它们通常从过去的数据中学习,而这些数据可能已经有了偏差。此外,倾向于做出不公平决策的机器学习算法可能会导致系统性歧视,因为一旦经过训练,算法可能会为大量未来案件做出决策。因此,人工智能算法被用于个性化广告、招聘、信贷业务或定价等多种场合(Dastile 等人,2020 年;Lambrecht 和 Tucker,2019 年;Raghavan 等人,2020 年;Sweeney,2013 年),它们会严重影响个人和社会生活的进一步发展,例如扩大贫富差距,也会影响组织,例如违反机会均等政策(Kordzadeh 和 Ghasemaghaei,2022 年)。因此,至关重要的不仅是要确保人工智能系统不会系统性地歧视,更进一步,还要将其理解为减轻人类决策造成的潜在不公平现象的机会。本讨论文件主要参考了 2022 年 3 月举行的德国商业研究学会 (VHB) 第 100 届年会期间举行的算法公平性研讨会。研讨会是跨学科的,发言者来自哲学和伦理学、商业和信息系统工程、法律等领域,以及来自以下领域的实践代表:
“人工智能即服务”(AIaaS)是一个快速增长的市场,提供各种即插即用的人工智能服务和工具。AIaaS 使其客户(用户)——可能缺乏开发自己系统的专业知识、数据和/或资源——能够轻松地构建人工智能功能并将其集成到他们的应用程序中。然而,众所周知,人工智能系统可以包含可能对社会产生影响的偏见和不平等。本文认为,公平的情境敏感性通常与 AIaaS 的“一刀切”方法不相容,从而导致问题和紧张局势。具体来说,我们通过提出基于用户可获得的自主权级别的人工智能服务分类法来审查和系统化 AIaaS 空间。然后,我们严格审查 AIaaS 的不同类别,概述这些服务如何导致偏见或在最终用户应用程序环境中造成其他危害。在此过程中,我们力求引起研究人员对这一新兴领域挑战的关注。
美国的共同流行病的特征是两个鲜明的界限。covid-19的负担在种族和族裔群体中分配不平等,同时,老年群体的死亡率急剧更高。这些差异使一些人表明,在接种老年人之前先疫苗的前线工人可以减少不平等现象,因为美国的老年人的非比较非西班牙裔白人。我们比较了两种分配政策的表现,一种将疫苗分配给一线工人,另一个分配给了65-74岁的老年人。我们估计了挽救的生命数量以及在美国和每个州的每个政策,总体和每个种族/族裔群体中挽救的生命数量。我们表明,比在每个种族/种族中分配疫苗的前线工人,在整个州和几乎每个州,对65-74岁的年轻人的Covid-19疫苗挽救了更多的生命和更多的生命。在评估疫苗分配策略的公平性时,应考虑每个人口亚组影响的总体好处,不仅是分配给每个亚组的剂量的比例。进一步的工作可以确定在多PLE权益指标上表现更好的优先级方案。
问题陈述:人工智能公平性规则和基准的标准化具有挑战性,因为人工智能公平性和其他道德要求取决于多种因素,例如背景、用例、人工智能系统的类型等。在本文中,我们阐述了人工智能系统在其生命周期的每个阶段(从开始到使用)都容易产生偏见,并且所有阶段都需要给予应有的关注以减轻人工智能偏见。我们需要一种标准化的方法来处理每个阶段的人工智能公平性。差距分析:虽然人工智能公平性是一个热门的研究课题,但普遍缺乏人工智能公平性的整体策略。大多数研究人员只关注人工智能模型构建的几个方面。同行评审显示过度关注数据集中的偏见、公平性指标和算法偏见。在此过程中,影响人工智能公平性的其他方面被忽略了。提出的解决方案:我们提出了一种新颖的七层模型形式的综合方法,该模型受到开放系统互连 (OSI) 模型的启发,旨在标准化 AI 公平性处理。尽管各个方面存在差异,但大多数 AI 系统都有类似的模型构建阶段。提出的模型将 AI 系统生命周期分为七个抽象层,每个抽象层对应一个明确定义的 AI 模型构建或使用阶段。我们还为每一层提供了检查表,并讨论了每一层中潜在的偏见来源及其缓解方法。这项工作将促进 AI 公平规则和基准测试参数的分层标准化。