研究人员一直都知道人工智能中存在偏见。然而,减轻人工智能模型中的偏见是一种平衡行为。首先,通常需要在满足公平性指标和实现高模型准确度之间做出妥协——最近研究人员不得不通过优化方法 11 来解决这个问题。此外,公平性指标可以分为两种不同的类型:群体公平(不同受保护群体之间的平等,例如按性别或种族定义的群体)和个人公平(相似的个体受到相似的对待)。进一步增加难度级别,不可能同时实现不同的指标以及群体和个人公平。公平指标是互相排斥的——即所谓的公平不可能定理 12 。最后,偏见的许多数学定义与法院用来裁定非法歧视行为的法律解释之间存在不匹配。
主要关键词