最近关于机器学习公平性的研究主要强调如何定义、量化和鼓励“公平”结果。然而,人们较少关注这些努力背后的道德基础。在应该考虑的道德观点中,结果主义是其中之一,其立场大致认为结果才是最重要的。虽然结果主义并非没有困难,虽然它不一定提供一种可行的选择行动的方式(因为不确定性、主观性和聚合性的综合问题),但它仍然为批判现有的机器学习公平性文献提供了强有力的基础。此外,它还突出了一些相关的权衡,包括谁来计算的问题、使用政策的利弊以及遥远未来的相对价值。在本文中,我们对机器学习中公平性的常见定义进行了结果主义批判,并从机器学习的角度对结果主义进行了批判。最后,我们更广泛地讨论了学习和随机化问题,这对于自动决策系统的伦理具有重要的意义。
主要关键词