问题陈述:人工智能公平性规则和基准的标准化具有挑战性,因为人工智能公平性和其他道德要求取决于多种因素,例如背景、用例、人工智能系统的类型等。在本文中,我们阐述了人工智能系统在其生命周期的每个阶段(从开始到使用)都容易产生偏见,并且所有阶段都需要给予应有的关注以减轻人工智能偏见。我们需要一种标准化的方法来处理每个阶段的人工智能公平性。差距分析:虽然人工智能公平性是一个热门的研究课题,但普遍缺乏人工智能公平性的整体策略。大多数研究人员只关注人工智能模型构建的几个方面。同行评审显示过度关注数据集中的偏见、公平性指标和算法偏见。在此过程中,影响人工智能公平性的其他方面被忽略了。提出的解决方案:我们提出了一种新颖的七层模型形式的综合方法,该模型受到开放系统互连 (OSI) 模型的启发,旨在标准化 AI 公平性处理。尽管各个方面存在差异,但大多数 AI 系统都有类似的模型构建阶段。提出的模型将 AI 系统生命周期分为七个抽象层,每个抽象层对应一个明确定义的 AI 模型构建或使用阶段。我们还为每一层提供了检查表,并讨论了每一层中潜在的偏见来源及其缓解方法。这项工作将促进 AI 公平规则和基准测试参数的分层标准化。