数字法庭中的种族偏见:康奈尔大学的研究表明了什么?

科学家们发现了人工智能如何评估重复犯罪的风险。

来源:安全实验室新闻频道

科学家已经发现了AI如何评估重复犯罪的风险。

将来,人工智能不可避免地必须做出与高风险有关的决定。康奈尔大学和其他科学机构的一群科学家决定检查现代大型语言模型的能力,以预测反复犯罪的可能性。

我决定检查

美国(用于替代卫生的矫正罪犯管理分析)已经被用来评估复发的风险,但是,其工作结果证明是模棱两可的。该系统算法根据诸如犯罪记录的数量,罪行的严重程度和被告年龄等因素来预测重复犯罪的可能性。 ProPublica的研究在2016年表明,指南针系统更常见地将黑人定义为潜在的累犯,即使与其他种族的代表同样有类似的犯罪故事。

为了在预测复发中检查人工智能的可能性,研究人员使用了三个来源的一组数据。第一个来源是来自指南针系统的信息,包括复发评估量表,该量表从1到10点不等。第二个来源是对20人进行调查的结果,他们估计了重复犯罪的可能性。第三个来源是芝加哥脸部数据库数据库,其中包含不同性别,种族和年龄的人的照片。该分析考虑了性别,年龄,种族,以前的严重犯罪数量以及犯罪的严重性等因素。

将来自芝加哥面部数据库数据库的被告的照片添加到分析中时,AI模型的结果得到了改善,但准确性仍然低于人们的结果。关键发现之一是,在通过上下文培训机制可以使用以前的解决方案的结果的情况下,语言模型超过了人和指南针系统。