摘要在本章中,我们将三个不同的思想链整合在一起,认为“公平”的概念在各种文化之间差异很大。因此,确保人类互动符合相关的公平标准,需要深入了解部署AI-ai-ai-apecy系统的文化背景。不这样做,不仅会导致AI-ai-ai-ai-ai-a-a-ai-a-a-a-a-a-a-a-a-a-a-a-necy结果产生不公平的结果,而且还会降低对系统的合法性和信任。第一个链涉及技术行业中所采取的主要方法,以确保支持AI支持的系统是公平的。这种方法是将公平性降低到可以普遍应用的一些数学形式主义,这是一种典型的西方公平概念。第二链涉及公平的替代概念,它们源于东方哲学传统,即儒家美德伦理。了解来自各种文化背景的个人如何看待公平性(尤其是他们对人类与人类互动中公平性的信念)对于理解他们将如何解释人类互动中的公平性至关重要。基于这些哲学和行为差异的基础,正如实证研究所强调的那样,第三链融合了政治学和跨学科研究的见解。这种观点为设计支持AI的系统提供了宝贵的指导,以与上下文相关的公平标准保持一致。在制度决策的背景下研究现有的对公平性的信念为人们从AI生成的决策中的期望提供了宝贵的见解。这些期望通常包括关键要素,例如足够的透明度,明确的问责制以及与系统做出的决定的机制 - 所有这些都是程序公平的重要组成部分。不是采用一种千篇一律的方法来确保AI系统的设计和部署,必须仔细考虑包括社会政治和文化背景在内的操作环境,以确保该系统符合相关的公平标准。
主要关键词