Loading...
机构名称:
¥ 6.0

摘要:大数据和人工智能(“AI”)正在彻底改变公司、政府和雇主对个人进行分类的方式。然而,令人惊讶的是,这场革命对反歧视制度造成的最重要威胁之一在现有文献中基本上未被探索或误解。这就是现代算法会导致“代理歧视”的风险。代理歧视是差别影响的一个特别有害的子集。与所有形式的差别影响一样,它涉及一种表面上中立的做法,但这种做法对受保护阶层的成员造成了不成比例的伤害。但产生差别影响的做法只有当表面上中立的做法对歧视者的用处至少部分来自于它产生差别影响这一事实时,才构成代理歧视。从历史上看,这种情况发生在一家公司故意试图通过依赖类别成员代理(例如邮政编码)来歧视受保护类别的成员时。但是,当受保护类别的成员身份可以预测歧视者表面上中立的目标时,代理歧视就不一定是故意的,从而使歧视变得“合理”。 在这些情况下,公司可能会在不知不觉中代理歧视,只知道表面上中立的做法会产生理想的结果。本文认为,人工智能和大数据是这种无意但“合理”的代理歧视风险的游戏规则改变者。拥有大数据的人工智能天生就具有代理歧视的结构,只要它们被剥夺了有关法律上可疑类别成员身份的信息,而该类别的预测能力无法通过人工智能可用的非可疑数据更直接地衡量。简单地拒绝 AI 访问这些预测性但可疑特征的最直观代理,对于阻止这一过程几乎没有作用;相反,它只会导致 AI 找到不太直观的代理。出于这些原因,

人工智能和大数据时代的代理歧视

人工智能和大数据时代的代理歧视PDF文件第1页

人工智能和大数据时代的代理歧视PDF文件第2页

人工智能和大数据时代的代理歧视PDF文件第3页

人工智能和大数据时代的代理歧视PDF文件第4页

人工智能和大数据时代的代理歧视PDF文件第5页