摘要:近年来,机器学习算法已迅速升至几个领域的决策过程的顶部。然而,这些算法很容易确认已经存在数据的偏见,从而导致偏见和不公平的选择。在这项工作中,我们研究了机器学习的偏见,并提供了促进公平和道德算法设计的策略。然后,本文强调了公平意识到的机器学习算法的价值,该算法的目的是通过在培训和评估程序中包含公平性约束来减少偏见。重新持续,对抗性培训和重新采样是可以用来克服偏见的一些策略。可以通过促进正义,透明度和包容性来发展更好地服务社会和尊重道德理想的机器学习系统。本文为研究人员,从业者和决策者提供了基础,以通过一致的努力来转发道德和公平的机器学习原因。