Loading...
机构名称:
¥ 1.0

另一个值得关注的领域是美国刑事司法系统在制定保释和量刑建议时广泛使用的风险评估人工智能算法。6 这些算法也被证明是非常不准确和种族偏见的。一项研究将被捕者的风险分数与他们随后两年的被捕记录进行比较,发现黑人被告被错误地标记为高风险的可能性几乎是白人被告的两倍,而被错误地标记为低风险的可能性则要大得多。7 这些通常是专有的算法不向公众开放,并且在正当程序、人权和歧视方面构成了严重问题。在大棒与胡萝卜的分类中,你可以将这些人工智能工具称为高风险的严厉大棒。8

人工智能:一把双刃剑

人工智能:一把双刃剑PDF文件第1页

人工智能:一把双刃剑PDF文件第2页

人工智能:一把双刃剑PDF文件第3页

人工智能:一把双刃剑PDF文件第4页

相关文件推荐

2024 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2023 年
¥3.0
2024 年
¥4.0
2023 年
¥1.0
2013 年
¥3.0
2024 年
¥1.0
2023 年
¥5.0
2023 年
¥2.0
2020 年
¥9.0
2024 年
¥4.0
2022 年
¥3.0
2021 年
¥6.0
2023 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2021 年
¥1.0
2023 年
¥1.0
2020 年
¥3.0
2024 年
¥1.0
2024 年
¥1.0
2023 年
¥11.0
2024 年
¥2.0
2024 年
¥10.0