摘要 要以可持续的方式实施公平的机器学习,选择正确的公平目标是关键。由于公平是一种正义的概念,它有各种定义,有时甚至相互冲突,所以这并不是一项简单的任务。人工智能 (AI) 系统最合适的公平定义是一个道德标准和法律要求的问题,正确的选择取决于特定的用例及其背景。在本立场文件中,我们建议使用决策树作为向最终用户解释和证明所实施的公平性的手段。这种结构首先将支持 AI 从业者将道德原则映射到具体应用的公平定义,从而使选择成为一个简单而透明的过程。然而,这种方法也有助于记录决策背后的原因。由于 AI 中公平性主题的普遍复杂性,我们认为为给定用例指定“公平性”是保持对 AI 系统信心的最佳方式。在这种情况下,可以通过与更广泛的受众分享决策过程中表达的原因和原则来实现。
主要关键词