随着决策算法在社会上变得更加普遍,当预测影响个人的生活时,重要性效率和解决问题的影响就受到质疑。高风险应用程序要求可信赖的AI系统以公平和问责制设计;这种信任和构想对于公众接受和成功部署至关重要。尽管对道德和值得信任的AI的倡导越来越多,以及诸如《欧盟AI法案》这样的指南的出现,但围绕AI的争议仍然存在于媒体上。公共部门AI系统正在随意实施,无论是在司法决策,医疗保健诊断或社会福利分配中。这些高风险的应用程序直接影响了公民的生活质量,强调了对公共部门如何设计和设计AI的批判性评估的必要性。我的论文探讨了公共部门AI中公平,问责制和不确定性的整合,以评估这些系统是否经过适当设计,有效地适应并能够增强社会福祉。该研究旨在为设计与公共部门需求保持一致并最大化社会利益的AI系统提供可行的见解。
摘要。公平干预措施在对人员进行排名时,由于限制访问敏感信息的法律限制,很难使用。预处理公平干预措施来创建更多公平的培训数据,以鼓励模型在不访问推理期间访问敏感信息的情况下产生公平的预测。对招聘环境中预处理公平干预的表现知之甚少。为了模拟实际场景,我们在预处理的表示上训练排名模型,而推断期间对敏感信息的访问受到限制。我们根据个人的公平和群体公平评估预处理公平干预方法。在两个现实世界数据集上,发现预处理方法可改善对性别的排名多样性,而单个公平不受影响。此外,我们讨论了在实践中使用预处理公平干预措施对人进行排名的优势和缺点。
摘要 尽管现有研究引起了人们对实现公平人工智能的一系列障碍的关注,但该领域缺乏一个系统地强调这些担忧如何结合在一起的解释。此外,对公平人工智能和哲学文献的回顾表明,“一视同仁”和其他直观观念不适合作为公平概念。该回顾随后提出了对人工智能研究有价值的替代公平概念的三个要求:(1)它必须提供一个理解权衡的元理论,这意味着它必须足够灵活以捕捉对决策的各种反对意见。(2)它不能诉诸公正的观点(中立数据、客观数据或最终仲裁者)。(3)它必须突出公平判断对背景的敏感性,即对历史和制度状况的敏感性。我们认为,公平的概念是制度决策历史迭代中适当的让步,符合这三个要求。基于这一定义,我们将评论者的见解组织成道德领域的流程结构图,我们希望这能为分析公平人工智能的计算机科学家和伦理学家带来清晰的认识,同时为进一步的技术和哲学工作扫清障碍。
互联网拥塞控制(CC)长期以来在网络系统中提出了一个挑战控制问题,最近的方法越来越多地纳入了深度强化学习(DRL),以增强适应性和性能。尽管有希望,但基于DRL的CC方案通常会遭受公平性差,尤其是在培训期间未见的网络环境时。本文介绍了陪审团,这是一种基于DRL的新型CC计划,旨在实现公平性。At its heart, Jury decouples the fairness con- trol from the principal DRL model with two design elements: i) By transforming network signals, it provides a universal view of network environments among competing flows, and ii) It adopts a post-processing phase to dynamically module the sending rate based on flow bandwidth occupancy estima- tion, ensuring large flows behave more conservatively and smaller flows more aggressively, thus achieving a fair和平衡的带宽分配。我们已经完全实施了陪审团,广泛的评估证明了其在仿真和现实世界网络的广泛范围内的强大结合特性和高性能。
强化学习是一种常用技术,用于在复杂问题解决的决策支持系统中优化目标。当这些系统影响个人或群体时,反思公平是很重要的。在实践中绝对公平是无法实现的,我们提出了一个框架,该框架允许平衡差异公平概念与主要目标。为此,我们以顺序公平的概念来制定群体和个人公平。首先,我们提出了一个扩展的马尔可夫决策过程,即MDP,明确意识到个人和群体。接下来,我们根据此𝑓MDP对公平概念进行形式化,这使我们能够评估主要目标以及对用户重要的公平概念,采用多目标加强学习方法。为了评估我们的框架,我们考虑了两种情况,这些情况需要绩效折衷的不同方面:雇用和欺诈检测。工作招聘的目标是组成强大的团队,同时为类似的个人申请人和社会团体提供平等的待遇。欺诈检测中的权衡是检测欺诈性转移的必要性,同时为签发交易的客户的负担很公平。在此框架中,我们进一步探讨了距离指标对个人公平性的影响,并强调了历史规模对公平计算的影响以及通过探索获得的公平性。
摘要作为越来越多的人工智能(AI)系统在我们的日常生活中根深蒂固,至关重要的是,它们是公平和值得信赖的。不幸的是,预测性警务系统通常不是这种情况,在这种情况下,对年龄以及种族和性别存在偏见,导致许多人被错误地标记为犯罪的可能性。在已经因其对少数群体的不公正待遇而受到批评的系统中,找到减轻这种负面趋势的方法至关重要。在这项工作中,我们探索并评估了预测性警务系统中域知识的输液,以最大程度地减少普遍的公平问题。实验结果表明,所有专业阶级的所有指标中的公平性表明,通过减少人们的不公平警务,将更多的信任带入了预测性警务系统。
该框架(本质上是一对算法)应用于模型的训练阶段,即模型从训练数据中“学习”时。这避免了与已经训练过的审计模型相关的潜在问题,例如审计员使用不代表训练数据的数据集来测试模型。该框架也是完全保密的:公司不需要向审计员透露其模型或训练数据,从而保护其知识产权。这是通过一种称为“零知识证明”的加密技术实现的,该技术允许一方在不透露数据的情况下证明有关其数据的陈述。
摘要:vadore(Valorisation des don'ees de recherche d'emploi)项目,收集法国公共就业服务的MLER,经济学家和专家,旨在推荐通过在法国旅行的大量专有数据(签名的合同和应用)来推荐最适合求职者[1]。根据《欧盟AI法》,人力资源算法被认为是高风险。 的确,数据显示偏见;例如,妇女可能会交易工资损失,以减少工作地点与房屋之间的距离。 危险是在数据中刻有偏见的算法。 我们已经表明,算法建议不比求职者的实际应用更偏见[2]。 我们可以做得更好吗? 这个问题在算法公平,伦理和信息理论的十字路口提出了棘手的问题。 两个这样的问题是:i)确定人口水平的所需偏见; ii)在个人建议级别上行动。 实习将通过反事实推理来解决这两个问题[3]。 基本上,Vadore算法学习了模型S(x,y),以根据合同和应用程序表达求职者X的期望。 该模型将通过辅助模型丰富,例如预测工作Y的可取性,例如 预测下一个时间段的作业Y的申请数。 通过调整这些辅助模型在整个模型中的影响,我们希望增加建议的多样性(如果我是竞争成瘾者,我会得到哪些建议? 等)。人力资源算法被认为是高风险。的确,数据显示偏见;例如,妇女可能会交易工资损失,以减少工作地点与房屋之间的距离。危险是在数据中刻有偏见的算法。我们已经表明,算法建议不比求职者的实际应用更偏见[2]。我们可以做得更好吗?这个问题在算法公平,伦理和信息理论的十字路口提出了棘手的问题。两个这样的问题是:i)确定人口水平的所需偏见; ii)在个人建议级别上行动。实习将通过反事实推理来解决这两个问题[3]。基本上,Vadore算法学习了模型S(x,y),以根据合同和应用程序表达求职者X的期望。该模型将通过辅助模型丰富,例如预测工作Y的可取性,例如预测下一个时间段的作业Y的申请数。通过调整这些辅助模型在整个模型中的影响,我们希望增加建议的多样性(如果我是竞争成瘾者,我会得到哪些建议?等)。仇恨比赛?如果我迫切需要找工作?值得注意的是,这种丰富的模型有望阐明用户行为之间性别差异的原因,例如在竞争厌恶 /食欲方面。
摘要,解决了AI模型中偏见和公平性的文献正在快速增长,这使得新颖的研究人员和从业人员很难拥有该领域的鸟眼视图。特别是,已经提出了许多政策计划,标准和最佳实践,以设定原理,程序和知识库,以指导和操作偏见和公平的管理。本文的第一个目的是简洁地调查公平AI方法和资源的最新作品,以及AI中偏见的主要政策,目的是为研究人员和从业者提供这样的鸟眼指导。本文的第二个目标是通过利用Nobias研究项目的结果来为政策建议和最佳实践做出贡献。我们介绍并讨论了一些围绕Nobias体系结构组织的相关主题,该主题由法律层组成,专注于欧盟的背景,以及一个偏见管理层,专注于理解,缓解和计算偏见。
Alice prefs Bob prefs SD outcome SD ranks TTC outcome TTC ranks a ≻ b a ≻ b A : a,B : b A : 1 ,B : 2 A : a,B : b A : 1 ,B : 2 a ≻ b b ≻ a A : a,B : b A : 1 ,B : 1 A : a,B : b A : 1 ,B : 1 b ≻ a a ≻ b A : b,B : a A :1,b:1 a:b,b:a:a:1,b:1 b a b a b a a:b,b:a:a:a:a:a:1,b:2 a:a,b a:a,b a:b a:b a:2,b:1表1爱丽丝,鲍勃,鲍勃及其水果。我们假设TTC的初始捐赠为A:a,b:b。
