自动语言处理经常用于人力资源 (HR) 部门,用于自动寻找候选人和评估简历。这些模型通常使用预先训练的语言模型,很难知道是否存在可能的偏见。最近,相互信息 (MI) 方法在获取与性别或种族等敏感变量无关的表示方面表现出色。但是,访问这些变量有时可能具有挑战性,并且在某些司法管辖区禁止使用它们。这些因素可能使检测和减轻偏见变得具有挑战性。在这种情况下,我们建议最小化候选人姓名与其简历或简历的潜在表示之间的 MI。该方法可以减轻敏感变量的偏见,而无需收集这些变量。我们首先将姓名表示投影到较小的空间中,以防止高维度中潜在的 MI 最小化问题,从而评估此方法。
德国埃森 stefan.stieglitz@uni-due.de 摘要 信息系统 (IS) 中的算法公平性是一种旨在减轻自动决策中的系统性歧视和偏见的概念。然而,先前的研究表明,不同的公平标准往往不相容。在招聘中,人工智能用于根据申请人是否适合空缺职位对其进行评估和排名。然而,基于人工智能的算法也存在各种类型的偏见(例如,使用有偏见的历史数据)。为了减少人工智能的偏见和由此产生的不公平待遇,我们进行了系统的文献综述,以确定适合招聘环境的策略。我们确定了九篇这方面的基本文章,并提取了四种解决人工智能不公平问题的方法,即预处理、过程中、后处理和特征选择。根据我们的研究结果,我们 (a) 制定了未来研究的研究议程,(b) 为设计和开发用于招聘的人工智能的从业者提出了策略。
努力促进公平、问责和透明被认为对于培养人工智能信任 (TAI) 至关重要,但现有文献对这种“信任”的阐述令人沮丧。缺乏对信任本身的阐述表明信任是普遍理解的、不复杂的,甚至无趣的。但真的是这样吗?我们对 TAI 出版物的分析揭示了许多不同的倾向,这些倾向在谁在信任(代理人)、信任什么(对象)、基于什么(基础)、为了什么(目标)和为什么(影响)方面有所不同。我们开发了一个本体来封装这些关键差异轴,以 a) 阐明文献中看似不一致的地方,b) 更有效地管理令人眼花缭乱的 TAI 考虑因素。然后,我们通过探索公平、问责和透明度的出版物语料库来反映这个本体,以研究在这些促进信任的方法中和之间考虑 TAI 的各种方式。
本文总结并评估了在人工智能 (AI) 系统中追求公平性的各种方法、手段和技术。本文分析了这些措施的优点和缺点,并提出了定义、衡量和防止人工智能偏见的实用指南。特别是,本文告诫不要使用一些过于简单但常见的评估人工智能系统偏见的方法,并提供了更复杂、更有效的替代方案。本文还通过为高影响力人工智能系统的不同利益相关者提供通用语言,解决了该领域普遍存在的争议和困惑。本文描述了涉及人工智能公平性的各种权衡,并提供了平衡这些权衡的实用建议。本文提供了评估公平性目标的成本和收益的技术,并定义了人类判断在设定这些目标中的作用。本文为人工智能从业者、组织领导者和政策制定者提供了讨论和指导,并为技术含量更高的受众提供了各种其他材料的链接。提供了大量现实世界的例子,从实践角度阐明了概念、挑战和建议。1.简介 1.1 本文结构 本文分为五个部分。在简介中,我们使用一个假设的案例研究来探索人工智能公平的重要原则并定义本文的范围。以下两节深入讨论了人工智能公平的两个广泛概念:对个人的待遇与模型的结果。第四部分描述了实现人工智能公平所涉及的一些固有权衡和实际挑战。在最后一节,我们提供了克服这些挑战的实用指南。在
人工智能 (AI) 系统现在影响着人们生活各个方面的决策,从他们阅读的新闻文章到他们是否获得贷款。虽然使用人工智能可能会在做出这些重要决策时提高准确性和效率,但最近的新闻和研究报告表明,人工智能模型可能会表现出不公平的行为:从招聘模型中表现出的性别偏见,到累犯预测系统中的种族偏见。本论文通过考虑在创建人工智能系统的整个过程中所做的选择(即建模管道)如何影响公平行为,探索了理解和缓解人工智能公平问题的新方法。首先,我将展示如何通过考虑模型的端到端管道来扩展我们对不公平模型行为的理解。具体来说,我的工作通过展示建模流程某些部分(即学习规则)的不稳定性如何导致不公平,因为重要决策依赖于任意的建模选择,从而引入了人工智能系统稳定性与公平性之间的联系。其次,我将讨论如何考虑机器学习流程可以帮助我们扩展偏见缓解技术工具箱。在一个案例研究中,研究税务审计实践中与收入相关的公平性,我将展示在人工智能创建流程中进行的干预措施(即使这些干预措施表面上与公平性无关)不仅可以有效地提高公平性,而且通常可以减少预测效用和公平性之间的权衡。最后,我将概述人工智能建模流程为从业者在创建模型时提供的灵活性带来的好处和危险,包括讨论这种灵活性的法律影响,我称之为模型多样性。
广告和营销领域任何人都可以采取的最重要的第一步就是更明智地处理这些问题。多样性、公平性和包容性培训,以及对偏见如何渗透到我们的数据和算法中的实际理解,可以帮助推动整个行业的探究驱动型转型。有许多资源可用于介绍这些概念,4As 和 IAB 等行业组织正在开展代理和品牌培训计划。例如,4As Campaign Enlightenment 是一个密集的四节课研讨会,旨在帮助组织制定 DE&I 愿景并建立基于包容性的活动开发实践。WPP 旗下 Mindshare 等全球机构已经开发出专门的实践,专门致力于通过其 Intentional Media Framework 为人们和成长中的品牌创造更公平和包容的结果。
摘要:影响个人的人工智能辅助决策提出了关于人工智能透明度和公平性的关键问题。许多研究强调了人工智能辅助决策中透明度/解释和公平性之间的相互关系。因此,同时考虑它们对用户信任或感知公平性的影响有利于负责任地使用社会技术人工智能系统,但目前很少受到关注。在本文中,我们分别研究了人工智能解释和公平性在特定基于人工智能的决策场景中对人类-人工智能信任和感知公平性的影响。一项模拟人工智能辅助决策在两个健康保险和医疗决策场景中的用户研究提供了重要的见解。由于全球大流行及其限制,用户研究以在线调查的形式进行。从参与者的信任角度来看,公平性仅在公平性水平较低的情况下才会影响用户信任,而公平性水平较低会降低用户信任。然而,增加解释有助于用户增加对人工智能辅助决策的信任。从感知公平的角度来看,我们的研究发现,引入低水平的公平性会降低用户的公平性感知,而引入高水平的公平性会提高用户的公平性感知。解释的加入无疑会增加公平性感知。此外,我们发现应用场景会影响信任和公平性感知。结果表明,在人工智能应用中使用人工智能解释和公平性陈述是复杂的:我们不仅需要考虑引入的解释类型和公平性程度,还需要考虑人工智能辅助决策的使用场景。
基于人工智能的决策系统在许多高风险领域的广泛应用引发了人们对这些系统公平性的担忧。由于这些系统将对受其决策影响的人产生现实后果,因此了解这些决策主体认为系统是公平的还是不公平的至关重要。在本文中,我们通过重复交互的视角扩展了之前在这方面的研究——我们提出,当决策主体与基于人工智能的决策系统反复交互,并能够通过决定是否留在系统中来战略性地响应系统时,哪些因素会影响决策主体对系统的公平感知和保留,以及如何影响。为了回答这些问题,我们在基于人工智能的贷款系统中进行了两次随机人类受试者实验。我们的结果表明,在与基于人工智能的决策系统的反复交互中,总体而言,决策主体对系统的公平感知和保留受到系统是否偏向主体自己所属群体的显著影响,而不是系统是否以公正的方式对待不同的群体。然而,不同资质水平的决策主体对人工智能系统在不同群体之间产生的偏见或人工智能系统偏袒/歧视自己群体的倾向有不同的反应。最后,我们还发现,虽然主体在基于人工智能的决策系统中的保留很大程度上取决于他们自己从系统获得有利决策的前景,但他们对系统的公平性感知却受到系统对其他群体的人的待遇的复杂影响。
Yap Jia Qing* 和 Ernest Lim** 摘要。需要清楚了解人工智能 (AI) 的使用风险及其应对方法,这需要适当且充分的企业披露。我们提出了一个人工智能公平性报告的法律框架,公司可以并且应该在遵守或解释的基础上遵守该框架。我们分析了人工智能模型不同方面产生的不公平根源以及机器学习系统性能的差异。我们评估了机器学习文献如何通过使用不同的公平性指标来解决不公平问题。然后,我们提出了一个细致入微且可行的人工智能公平性报告框架,包括:(a) 披露所有机器学习模型的使用情况;(b) 披露所使用的公平性指标及其随后的权衡;(c) 披露所使用的去偏见方法;(d) 发布数据集供公众检查或第三方审计。然后,我们将该报告框架应用于两个案例研究。关键词:人工智能、机器学习、公平、歧视、披露、报告、公司、法律和技术、股东、利益相关者、GDPR。
教育测量领域将有效性和公平性作为评估质量的核心概念。先前的研究提出将公平性论证嵌入基于论证的有效性过程中,特别是当公平性被视为跨群体评估属性的可比性时。但是,我们认为,需要一种更灵活的公平性论证方法,这种方法发生在有效性论证之外并与其互补,以解决一组评估利益相关者可能持有的许多公平性观点。因此,我们将本文重点放在两个贡献上:(a)引入基于论证的公平性方法来补充传统和人工智能 (AI) 增强评估的基于论证的有效性;(b)将其应用于用于预先筛选求职者的自动视频面试中感知可雇用性的说明性 AI 评估中。我们最后提出了进一步推进基于论证的公平性方法的建议。