摘要 本章主张采用结构性不公正方法来治理人工智能。结构性不公正包括分析和评价两个部分。分析部分包括社会科学中众所周知的结构性解释。评价部分是一种正义理论。结构性不公正是一个强大的概念工具,它使研究人员和从业者能够识别、表达甚至预测人工智能偏见。本章以人工智能中因结构性不公正而产生的种族偏见为例。然后,本章介绍了哲学家 Iris Marion Young 提出的结构性不公正概念。此外,本章还认为结构性不公正非常适合作为一种人工智能治理方法,并将这种方法与从危害和利益分析或价值陈述开始的替代方法进行了比较。本章表明,结构性不公正为多样性、公平和包容性的价值观和关注提供了方法论和规范基础。本章最后对“结构”和责任的概念进行了展望。结构的概念是正义的核心。一个开放的理论研究问题是人工智能本身在多大程度上是社会结构的一部分。最后,责任的实践是结构性不公正的核心。即使他们不能对结构性不公正的存在负责,每个人和每个组织都有责任在未来解决结构性不公正问题。