做出公平的决策对于在社会环境中合乎道德地实施机器学习算法至关重要。在这项工作中,我们考虑了著名的反事实公平定义。我们首先证明,满足反事实公平的算法也满足人口均等性,这是一个更简单的公平约束。同样,我们表明,所有满足人口均等性的算法都可以通过简单的修改来满足反事实公平性。总之,我们的结果表明,反事实公平性基本等同于人口均等性,这对于日益增多的反事实公平性研究具有重要意义。我们通过实证验证了我们的理论发现,根据三个简单的基准分析了三种现有的反事实公平算法。我们发现,在多个数据集上,两种简单的基准算法在公平性、准确性和效率方面都优于所有三种现有算法。我们的分析使我们正式确定了一个具体的公平目标:维护受保护群体内个人的秩序。我们相信,受保护组中个体的透明排序能够使公平算法更加可信。从设计上来说,两个简单的基准算法满足了这一目标,而现有的反事实公平算法则未能满足这一目标。
我们提出了OxonFair,这是一种新的开源工具包,用于在二元分类中执行公平性。与现有工具包相比:(i)我们支持NLP和计算机视觉分类以及标准表格问题。(ii)我们支持对验证数据实施公平性,使我们对各种过度适应的挑战进行了强大的态度。(iii)我们的方法可以根据真实的姿势,假阳性,假否定性和真实负面影响来优化任何措施。这使其比现有工具包更容易扩展和表现力。它支持两篇流行评论文章的所有9个和所有基于决策的小组指标。(iv)我们共同优化了一个与公平限制的性能目标。这可以最大程度地减少降解,同时实施公平,甚至改善了不充分调整的不公平基线的表现。OxonFair与标准ML工具包兼容,包括Sklearn,Autogluon和Pytorch,可在https://github.com/oxfordinterntertintinstitute/oxonfair上找到。
摘要:人工智能 (AI) 和机器学习 (ML) 正在通过增强个性化学习和学术支持来改变高等教育,但它们也带来了重大的道德挑战,特别是在固有偏见方面。这篇评论批判性地审视了人工智能在高等教育中的整合,强调了其创新教育范式的潜力和解决道德影响以避免延续现有不平等的必要性。研究人员采用了一种方法论,以案例研究和文献为主要数据收集方法,重点研究通过技术解决方案、多样化数据集和严格遵守道德准则来减轻偏见的策略。他们的研究结果表明,在高等教育中建立道德的人工智能环境势在必行,需要政策监管、治理和教育方面的全面努力。该研究强调了跨学科合作在解决人工智能偏见复杂性方面的重要性,强调了政策、监管、治理和教育在创建道德人工智能框架方面发挥的关键作用。最后,该论文提倡持续保持警惕并采取积极主动的策略,以确保人工智能对教育环境做出积极贡献,并强调需要建立强有力的框架,将道德考虑融入人工智能系统的整个生命周期,以确保其负责任和公平地使用。
如今,人工智能越来越多地被用于许多高风险决策应用中,其中公平性是一个重要问题。目前,已经有许多人工智能存在偏见并做出可疑和不公平决策的例子。人工智能研究界提出了许多方法来衡量和减轻不必要的偏见,但其中很少有方法涉及人类决策者的意见。我们认为,由于不同的公平标准有时无法同时满足,并且实现公平通常需要牺牲模型准确性等其他目标,因此,关键是要了解并遵守人类决策者关于如何在这些目标之间进行权衡的偏好。在本文中,我们提出了一个框架和一些示例方法来引出这些偏好并根据这些偏好优化人工智能模型。
8 英国于 2014 年颁布了针对 TDM 的有限例外,参见 1988 年《版权、外观设计和专利法》第 29A 条,但已宣布进一步推进的计划,参见 UKIPO,《新闻稿:人工智能和知识产权 - 版权和专利》(2022 年 6 月 28 日)(https://www.gov.uk/government/news/artificial-intelligence-and-ip-copyright-and-patents)。日本《版权法》第 30(4) 条允许非表达性使用受版权保护的作品,只要这种使用不会“根据作品的性质或目的或其使用情况,不合理地损害版权所有者的利益……”。参见日本《版权法》(1970 年 5 月 6 日第 48 号法案,经修订至 2022 年 1 月 1 日),第 30(4) 条,可查阅(https://wipolex.wipo.int/en/legislation/details/21342)。2019 年 4 月,欧盟通过了《数字单一市场指令》(“DSM 指令”),其中针对文本和数据挖掘提出了两项强制性例外。DSM 指令第 3 条要求所有欧盟成员国对非营利研究领域的 TDM 实施广泛的版权例外。DSM 指令第 4 条包含第二项强制性豁免,该豁免范围更具包容性,但较窄。请参阅,2019/790 号指令,OJ 2019 (L 130/92)。另请参阅 Pamela Samuelson,《版权作品的文本和数据挖掘:合法吗?》64:11 C OMMUNICATIONS OF THE ACM 20 (2021)。
机器学习从业者通常对其产品的道德方面持矛盾态度。我们相信,任何能使我们从当前状态转变为我们的系统实现一定程度公平的事物都是值得欢迎的改进。即使这种进步不能使我们 100% 地实现“完全”公平的目标,或与我们个人对使用公平衡量标准的看法完全一致,情况也是如此。构建实施了一定程度公平性的系统仍将使我们处于比现状更好的位置,因为这样可以增加足够关心问题的系统数量,从而投入精力进行补救。应避免在实际应用中应用公平和道德问题的障碍,无论是深奥的哲学辩论还是技术开销,例如引入越来越多的超参数。在本文中,我们进一步阐述了我们对这一观点的论证及其重要性。
本文介绍了一种新颖的“公平性”数据集,以衡量 AI 模型对不同年龄、性别、表观肤色和环境光照条件的稳健性。我们的数据集由 3,011 名受试者组成,包含 45,000 多个视频,平均每人 15 个视频。这些视频是在美国多个州录制的,参与者是不同年龄、性别和表观肤色组的成年人。一个关键特征是每个受试者都同意参与并使用他们的肖像。此外,我们的年龄和性别注释由受试者自己提供。一组训练有素的注释者使用 Fitzpatrick 皮肤类型量表标记受试者的表观肤色 [ 6 ]。此外,还提供了在低环境光下录制的视频的注释。作为衡量跨某些属性的预测稳健性的应用,我们评估了最先进的表观年龄和性别分类方法。我们的实验从公平对待来自不同背景的人的角度对这些模型进行了彻底的分析。
第七章禁止基于性别、怀孕或其他受保护类别的就业歧视(由美国执行平等就业机会委员会 (EEOC)) ADA 禁止基于残疾的就业歧视(由 EEOC 执行) 家庭和医疗休假法案为某些工人提供怀孕和与新生儿建立亲密关系的无薪假期(由美国劳工部执行) PUMP 法案为哺乳母亲提供在工作中吸奶的时间和私人场所(由美国劳工部执行)
开发负责任的 AI 解决方案是一个过程,涉及在 ML 生命周期的所有阶段与关键利益相关者(包括产品、政策、法律、工程和 AI/ML 团队以及最终用户和社区)的意见和讨论。在本文中,我们主要关注 ML 生命周期中用于解决偏见和可解释性的技术工具。我们还提供了一个简短的部分,介绍了使用 AI 实现公平性和可解释性的局限性和最佳实践。
提示工人:《美国残疾人法》和软件,算法和人工智能的使用(https://www.eeoc.gov/tips-workers-workers-workers-workers-workers-americans-disabilities-actiment-act-and-and-and-and-