Loading...
机构名称:
¥ 1.0

摘要 人工智能 (AI) 和自然语言处理 (NLP) 领域的研究人员和行业开发人员一致采用了罗尔斯式的公平定义。根据这一定义,如果一项技术能为最弱势群体实现性能最大化,那么该技术就是公平的。我们认为这一定义存在相当大的漏洞,可以用来使 AI/NLP 研究中导致社会和经济不平等的常见做法合法化。这些做法包括我们称之为子群测试膨胀和快照代表性评估。子群测试膨胀是指最初针对特定的技术就绪早期采用者目标群体定制一项技术,以更快地收集反馈的做法。快照代表性评估是指根据当前最终用户的代表性样本评估一项技术的做法。这两种策略都可能导致社会和经济不平等,但通常使用政治经济学中熟悉的论点并以罗尔斯公平为基础来证明其合理性。我们讨论了罗尔斯公平的平等主义替代方案,以及更广泛地说,走向全球和社会公平的 AI/NLP 研究和开发道路上的障碍。

罗尔斯式的人工智能公平漏洞

罗尔斯式的人工智能公平漏洞PDF文件第1页

罗尔斯式的人工智能公平漏洞PDF文件第2页

罗尔斯式的人工智能公平漏洞PDF文件第3页

罗尔斯式的人工智能公平漏洞PDF文件第4页

罗尔斯式的人工智能公平漏洞PDF文件第5页

相关文件推荐

1900 年
¥1.0
1900 年
¥1.0