Loading...
机构名称:
¥ 2.0

机器学习(ML)被广泛用于适度在线内容。尽管具有相对于人类适度的可伸缩性,但ML的使用还是针对内容中的适度带来了独特的挑战。这样的挑战是预测性多样性:内容分类的多个竞争模型可能平均表现良好,但要为同一内容分配矛盾的预测。这种多功能性可能是由于在训练过程中做出的看似无害的选择而产生的,这不会有意义地改变ML模型的准确性,但仍可以改变模型出错的问题。我们在实验上证明了内容节制工具如何将样本分类为“有毒”,从而导致对语音的任意限制。我们使用国际公民和政治权利(ICCPR)制定的原则,即表达自由,非歧视和程序正义来解释这些发现在人权方面的影响。我们分析了(i)用于检测“有毒”含量的流行最先进的LLM中的预测性多样性; (ii)这种任意性在社会群体之间的不同影响; (iii)模型多样性在含量上被人类注释者一致认为是有毒的内容的大小。我们的发现表明,上规模的算法适度有可能使“算法Leviathan”合法化,其中算法不成比例地管理人权。为了减轻这种风险,我们的研究强调了识别和提高内容适度应用程序任意性的透明度的需求。我们的发现对内容有影响

内容中的算法任意性

内容中的算法任意性PDF文件第1页

内容中的算法任意性PDF文件第2页

内容中的算法任意性PDF文件第3页

内容中的算法任意性PDF文件第4页

内容中的算法任意性PDF文件第5页

相关文件推荐

2024 年
¥1.0
2024 年
¥2.0
2023 年
¥2.0
2025 年
¥3.0
2025 年
¥2.0
2023 年
¥1.0
2024 年
¥1.0
2024 年
¥2.0
2023 年
¥1.0
2025 年
¥1.0
2024 年
¥6.0
2024 年
¥6.0
2023 年
¥1.0
2022 年
¥1.0
2020 年
¥1.0
2020 年
¥2.0
2022 年
¥1.0
2023 年
¥5.0
2023 年
¥3.0
2024 年
¥2.0
2020 年
¥2.0
2022 年
¥13.0
2020 年
¥6.0
2024 年
¥2.0
2024 年
¥9.0
2025 年
¥3.0
2025 年
¥8.0
1900 年
¥19.0
2021 年
¥1.0