人工智能 (AI) 系统现在影响着人们生活各个方面的决策,从他们阅读的新闻文章到他们是否获得贷款。虽然使用人工智能可能会在做出这些重要决策时提高准确性和效率,但最近的新闻和研究报告表明,人工智能模型可能会表现出不公平的行为:从招聘模型中表现出的性别偏见,到累犯预测系统中的种族偏见。本论文通过考虑在创建人工智能系统的整个过程中所做的选择(即建模管道)如何影响公平行为,探索了理解和缓解人工智能公平问题的新方法。首先,我将展示如何通过考虑模型的端到端管道来扩展我们对不公平模型行为的理解。具体来说,我的工作通过展示建模流程某些部分(即学习规则)的不稳定性如何导致不公平,因为重要决策依赖于任意的建模选择,从而引入了人工智能系统稳定性与公平性之间的联系。其次,我将讨论如何考虑机器学习流程可以帮助我们扩展偏见缓解技术工具箱。在一个案例研究中,研究税务审计实践中与收入相关的公平性,我将展示在人工智能创建流程中进行的干预措施(即使这些干预措施表面上与公平性无关)不仅可以有效地提高公平性,而且通常可以减少预测效用和公平性之间的权衡。最后,我将概述人工智能建模流程为从业者在创建模型时提供的灵活性带来的好处和危险,包括讨论这种灵活性的法律影响,我称之为模型多样性。