Loading...
机构名称:
¥ 1.0

问题陈述ML用于跨各种领域的结果决策,例如减少累犯,雇用和信贷贷款。但是,可以通过使用历史人类数据的算法来学习和巩固社会偏见。不同类型的偏见,可以在ML管道的每个步骤中引入。公平性已成为算法决策的重要考虑因素,因为最近的案例强调了减轻对某些人口统计群体(Barocas,Hardt和Narayanan 2023)的不合理的缺点的重要性。在ML中的一项工作努力在不同的群体中为公平性而奋斗,这导致了许多所谓的群体公平标准。群体公平标准关注算法决策对个人生活的影响(Mehrabi等人。2021)。目标是避免在社会人口统计学群体之间进行系统的缺点。尽管ML取得了有希望的进展,但仍有一个警告:良好的预测模型不会自动导致公平。即使是一个完全准确的预测指标也不会为受影响的个体的公平结果。但是,量化决策系统的公平性并不简单,因为没有普遍接受的定义对算法决策系统的含义。任何在道德上适当的公平概念都在很大程度上取决于上下文,即使在给定的上下文中,人们可能会不同意“公平”。使Matters更加困难,先前的研究表明

识别,缓解和预期算法决策的偏见

识别,缓解和预期算法决策的偏见PDF文件第1页

识别,缓解和预期算法决策的偏见PDF文件第2页

相关文件推荐