Loading...
机构名称:
¥ 3.0

美国几个县使用一款预测累犯的应用程序来判断被告是否会再次犯罪。它始终为非裔美国人提供比白人更高的风险分数。事实是,预测与事后发生的情况不符。得分最低的白人最有可能犯罪。而得分最高的非裔美国人没有再次犯罪。这其中存在非常明显的偏见。另一个非常有趣的例子是预测政策。经验证据表明,警察,无论是隐性还是显性,都存在某种种族偏见。这一结论是基于用于决定巡逻哪些街区的算法得出的。算法往往会强化偏见,因为如果算法显示某个地区的犯罪率更高,它就会派出更多的警察。如果更多的警察在某个地区巡逻,他们就会发现更多的犯罪。这是一个永无止境的循环。算法不会纠正偏见,也不会考虑到某个地区的实际统计数据。

草案FIPS 201-3(2020年11月3日)收到的公开评论及其决议

草案FIPS 201-3(2020年11月3日)收到的公开评论及其决议PDF文件第1页

草案FIPS 201-3(2020年11月3日)收到的公开评论及其决议PDF文件第2页

草案FIPS 201-3(2020年11月3日)收到的公开评论及其决议PDF文件第3页

草案FIPS 201-3(2020年11月3日)收到的公开评论及其决议PDF文件第4页

草案FIPS 201-3(2020年11月3日)收到的公开评论及其决议PDF文件第5页