近年来,机器学习的公平性(ML),人工智能(AI)和算法决策系统已成为一个高度活跃的研发领域。迄今为止,与决策和公民社会背景隔离建立了减轻算法系统偏见和改善公平性的大多数措施和方法。许多当前的措施简单地定义了“公平”,意味着缩小性能差距或人口组之间的结果,同时保留了尽可能多的原始系统的准确性。这种复杂的社会法律概念的平等概念转换为公平措施的这种过于简单的翻译令人不安。许多当前的公平措施都遭受了公平和绩效退化的损失,或“降低” - 通过使每个团体变得更糟或使表现更好的群体降低到最差的水平来实现公平性。升级是决定仅根据绩效和结果群体之间的平等或差异来衡量公平性的症状,这些症状忽略了其他有关分配正义(例如,福利或优先级)的其他相关问题,这些问题更难量化和衡量。只有在绩效或结果的分布方面才能衡量公平性时,纠正措施同样只能针对这些商品之间的分布方式。我们将这种趋势称为“默认情况下严格的平等主义”。
主要关键词