机器学习(ML)正在从研究发展到现实世界的过程中改变了社会。可能会带来巨大的收益,但是在这种用途的公平性上也存在重大关注:不同的绩效,不公平的工作否认,刻板印象的搜索结果等等。到目前为止,我们倾向于在平等方面考虑公平性,这在数学上很方便地制定(例如,作为整个组的平等精度率)。但是,我相信我们现在需要更靠近公平,并认识到不同的人在不平等的情况下需要不同的需求。公平性作为公平性说明社会背景和历史不公正,因此在机器学习模型中量化和运作更加困难。,我们这样做至关重要,在我的工作中,我利用我的技术专长来以在现实世界中更好地实现这些规范性问题来互动这些规范性问题。我这样做是:(1)通过询问规范假设背后的道德问题来重新定位技术ML研究; (2)在计算机科学之外的学科中基础技术工作,例如心理学,具有悠久的研究不平等和伤害的历史; (3)面对研究中出现的实际问题。我因此使用我的技术专长与计算机科学家,社会科学家和现实世界从业者的工作互动,以开发现实且有影响力的ML公平干预措施。
主要关键词