Loading...
机构名称:
¥ 1.0

机器学习 (ML) 算法在我们的环境中变得越来越普遍。它们嵌入在我们日常使用的产品和服务中,依赖于我们的个人信息,从中寻找模式并产生相应的结果 [1]。我们大多不知道这个过程,也不知道这些系统如何“看待”我们。然而,这些结果可能会严重影响我们的生活 [2–4]。最近的研究表明,一些 ML 算法反映了算法中编码的社会差异和偏见。此外,用于训练这些算法的数据集通常未能包括代表性不足的群体和历史上被边缘化的社区 [5–7]。因此,个人熟悉这些系统并了解如何检测和分类自己的身体至关重要。

走进分类立方体:亲密的……

走进分类立方体:亲密的……PDF文件第1页

走进分类立方体:亲密的……PDF文件第2页

走进分类立方体:亲密的……PDF文件第3页

走进分类立方体:亲密的……PDF文件第4页

走进分类立方体:亲密的……PDF文件第5页

相关文件推荐

2024 年
¥1.0
2019 年
¥1.0
2019 年
¥2.0
2019 年
¥2.0
2015 年
¥1.0
2017 年
¥4.0
2017 年
¥1.0
2024 年
¥1.0
2020 年
¥2.0
2022 年
¥3.0
2019 年
¥3.0
2019 年
¥2.0
2017 年
¥1.0
2024 年
¥1.0
2021 年
¥30.0
2020 年
¥1.0
2019 年
¥2.0
2018 年
¥2.0
2015 年
¥1.0
2018 年
¥2.0
2019 年
¥2.0
2019 年
¥2.0
2019 年
¥1.0
2018 年
¥73.0
2019 年
¥3.0
2018 年
¥2.0
2019 年
¥10.0
2005 年
¥4.0
2021 年
¥53.0
2017 年
¥1.0