2.3 展望未来,Veritas 联盟将把透明度评估方法应用于保险承保用例和支付用例的完整 FEAT 评估。将与选定的金融机构一起进行试点,以将这些方法与其现有的治理框架相结合。Veritas Toolkit 5 还将整合公平性和透明度诊断工具的更新版本以及增强的 FEAT 评估工具。与 APIX 6 的集成还将允许金融机构和金融科技公司在平台上拥有自己的 Veritas Toolkit 环境。在开发 Veritas 生态系统时,该联盟将投资于人才发展,提供简短的培训和路演,以提高对 FEAT 的认识和发展专业知识。它还将研究定义规范并整理与行业相关领域的可接受做法,例如拒绝推理方法、公平度量阈值和受保护属性。这些举措将考虑到专题审查中指出的金融机构面临的常见问题和挑战,以支持金融机构遵守 FEAT 原则。
摘要 人工智能 (AI) 和自然语言处理 (NLP) 领域的研究人员和行业开发人员一致采用了罗尔斯式的公平定义。根据这一定义,如果一项技术能为最弱势群体实现性能最大化,那么该技术就是公平的。我们认为这一定义存在相当大的漏洞,可以用来使 AI/NLP 研究中导致社会和经济不平等的常见做法合法化。这些做法包括我们称之为子群测试膨胀和快照代表性评估。子群测试膨胀是指最初针对特定的技术就绪早期采用者目标群体定制一项技术,以更快地收集反馈的做法。快照代表性评估是指根据当前最终用户的代表性样本评估一项技术的做法。这两种策略都可能导致社会和经济不平等,但通常使用政治经济学中熟悉的论点并以罗尔斯公平为基础来证明其合理性。我们讨论了罗尔斯公平的平等主义替代方案,以及更广泛地说,走向全球和社会公平的 AI/NLP 研究和开发道路上的障碍。
我们研究统计亚组公平性审核分类的问题。Kearns等。 [20]表明,审核组合子组的公平性与不可知论的学习一样困难。 基本上所有关于纠正歧视子组的统计量度的工作都假定了该问题的甲骨文,尽管没有有效的算法已知。 如果我们假设数据分布是高斯,甚至仅仅是对数 - concave,则最近的工作线发现了半个空格的有效的不可知论学习算法。 不幸的是,Kearns等人的减少。 是根据弱的,distribution free-freem学习而提出的,因此没有建立对诸如对数 - concave分布之类的家庭的联系。 在这项工作中,我们在审核高斯分布方面给出积极和负面的结果:在积极方面,我们提出了一种替代方法来利用这些进步的不可知论学习,从而获得了第一个多项式时间近似方案(PTA),以审核非审计的非整合统计学概念,我们显示出均超过统计学的特征:高斯。 在负面,我们在加密假设下,没有多项式时间算法可以保证一般半空间亚组的任何非平凡的审计,即使在高斯特征分布下也可以保证。Kearns等。[20]表明,审核组合子组的公平性与不可知论的学习一样困难。基本上所有关于纠正歧视子组的统计量度的工作都假定了该问题的甲骨文,尽管没有有效的算法已知。如果我们假设数据分布是高斯,甚至仅仅是对数 - concave,则最近的工作线发现了半个空格的有效的不可知论学习算法。不幸的是,Kearns等人的减少。是根据弱的,distribution free-freem学习而提出的,因此没有建立对诸如对数 - concave分布之类的家庭的联系。在这项工作中,我们在审核高斯分布方面给出积极和负面的结果:在积极方面,我们提出了一种替代方法来利用这些进步的不可知论学习,从而获得了第一个多项式时间近似方案(PTA),以审核非审计的非整合统计学概念,我们显示出均超过统计学的特征:高斯。在负面,我们在加密假设下,没有多项式时间算法可以保证一般半空间亚组的任何非平凡的审计,即使在高斯特征分布下也可以保证。
技术为人们的生活带来了诸多改善,但另一方面,企业对消费者和公民生活的控制力却只增不减。数据和人工智能的复杂使用使消费者在企业面前处于越来越弱势的地位,因为企业控制着选择环境并影响消费者的在线行为。随着消费者在日常社会活动中越来越依赖数据驱动的环境,不断接触货币化驱动的算法,为每个人提供个性化的市场和世界体验,这种算法已经被视为有害后果,降低了消费者和公民对市场和民主社会的信任。欧盟委员会对消费者法的“数字公平”适用性检查为新一代消费者保护立法铺平了道路,这将扭转消费者在数字技术主导的世界中无能为力的负面趋势。经过修订和更新的消费者法应能够有效应对消费者在数字世界中面临的风险和挑战,其次,在《通用数据保护条例》(GDPR)、《数字服务法》(“DSA”)、《数字市场法》(“DMA”)、《数据治理法》(“DGA”)以及即将出台的法律(如《数据法》(“DA”)和《人工智能法》(“AIA”))所涵盖的领域发挥立法安全网的作用。为了响应消费者法“数字公平”适用性检查框架内的公众咨询,本文汇集了 BEUC 对咨询的意见。它由两个主要部分组成,分别致力于高级建议和具体考虑。第一部分提出了横向建议,涉及消费者法在当今世界的地位、它面临的风险以及它必须如何发展以适应现实。欧盟委员会的适用性检查必须从头开始,即重新思考欧盟消费者法的概念。第二部分旨在解决具体问题,也解决欧盟委员会为健康检查工作列出的问题,但要更进一步。我们将在咨询时间范围之外继续为更大的健康检查过程提供意见。我们正在准备新的研究和新的立场,对所提出的概念进行更深入的研究,并将在稍后阶段发布。
如今,由于复杂模型(例如深神经网络工作(DNN))和众多大规模数据集的收集,机器学习模型在许多领域都取得了显着突破。机器学习模型越来越多地用于与最终用户相互作用的现实应用程序中,例如医疗保健,推荐系统,刑事司法,招聘等[53]。最近的研究表明,这些机器学习模型可能对某些人口统计学表现出歧视行为。例如,皮肤较深的女性的错误率(高达34.7%)远高于皮肤较轻的男性(高达34.7%)[5]。这种戏剧性的准确性差异可能会对肤色较暗的女性造成重大损害。同样,基于AI的科技公司的招聘工具通过用关键词“女性”来惩罚简历来表现出对妇女的歧视。现实世界中AI系统的偏见和不公平行为可能会对个人和我们的社会造成重大伤害。因此,学术界和行业都在解决不公平的问题方面存在着增长的兴趣[59,63,19]。
描述公平性估计的交叉性问题开发了必不可少的方法来指导搜索公平度指标以基于假设测试的指标来探讨探索基本上不同的方法:公平性作为足够的方法(不是平等),核算不确定性(非点估计)是否充分考虑了估计公平性的统计不确定性吗?
摘要:影响个人的人工智能辅助决策提出了关于人工智能透明度和公平性的关键问题。许多研究强调了人工智能辅助决策中透明度/解释和公平性之间的相互关系。因此,同时考虑它们对用户信任或感知公平性的影响有利于负责任地使用社会技术人工智能系统,但目前很少受到关注。在本文中,我们分别研究了人工智能解释和公平性在特定基于人工智能的决策场景中对人类-人工智能信任和感知公平性的影响。一项模拟人工智能辅助决策在两个健康保险和医疗决策场景中的用户研究提供了重要的见解。由于全球大流行及其限制,用户研究以在线调查的形式进行。从参与者的信任角度来看,公平性仅在公平性水平较低的情况下才会影响用户信任,而公平性水平较低会降低用户信任。然而,增加解释有助于用户增加对人工智能辅助决策的信任。从感知公平的角度来看,我们的研究发现,引入低水平的公平性会降低用户的公平性感知,而引入高水平的公平性会提高用户的公平性感知。解释的加入无疑会增加公平性感知。此外,我们发现应用场景会影响信任和公平性感知。结果表明,在人工智能应用中使用人工智能解释和公平性陈述是复杂的:我们不仅需要考虑引入的解释类型和公平性程度,还需要考虑人工智能辅助决策的使用场景。
● HW1:研究过程中的道德规范 - 这项作业将向学生介绍开展公平和道德研究的概念。重点将放在对 IRB 本质的历史理解上。学生将完成 CITI 人类受试者研究培训作为其作业的一部分。● HW2:数据和预测中的偏见 - 学生将学习将基本的数据挖掘技术应用于数据。学生将设计和对大型数据集进行统计测试。这些测试将围绕公平概念以及如何利用技术来识别不公平进行设计。● HW3:NLP 中的偏见 - 学生将学习命名实体识别中的性别偏见。解决这项作业需要基本的自然语言处理技术,包括基于转换器的语言模型,如 BERT。● HW4:网络中的偏见——在这项作业中,学生将学习和应用基本的网络技术来发现网络中的性别偏见。女性在网络中的代表性是更多还是更少?她们是否倾向于占据比男性更高或更低的中心位置?注意:在书面和编程作业中,描述和分析的完整性和清晰度与最终的正确答案一样重要。仅发送单个最终值(即使正确)是不够的。请参阅下表: