Loading...
机构名称:
¥ 3.0

我们的基础研究重点关注以下技术问题:在使用监督学习时如何衡量这些预测差异,以及如何在这种背景下减轻这些差异?我们关注现有文献如何在人口统计特征或脆弱性特征可以测量或代理(即使用基于其他数据(例如人名)的概率模型进行预测)时提出这一点,以及在无法做到这一点时的替代方案。然而,我们知道,即使不同人口统计群体的人在预测和最终结果上存在差异,也存在关于这种差异的原因和理由的单独问题。为此,重要的是要考虑使用模型的更广泛背景,并在适当的情况下,考虑任何非歧视性的商业理由或其他理由来衡量任何差异。

研究笔记:监督机器学习中的偏见文献综述

研究笔记:监督机器学习中的偏见文献综述PDF文件第1页

研究笔记:监督机器学习中的偏见文献综述PDF文件第2页

研究笔记:监督机器学习中的偏见文献综述PDF文件第3页

研究笔记:监督机器学习中的偏见文献综述PDF文件第4页

研究笔记:监督机器学习中的偏见文献综述PDF文件第5页

相关文件推荐

2024 年
¥1.0
2020 年
¥1.0
2024 年
¥1.0
2019 年
¥54.0
2024 年
¥1.0
2024 年
¥2.0
2022 年
¥1.0
2023 年
¥1.0
2021 年
¥1.0
2023 年
¥1.0
2022 年
¥1.0
2024 年
¥1.0
2023 年
¥1.0