人工智能系统中的算法政治偏见
机构名称:
¥ 2.0

摘要 一些人工智能 (AI) 系统会表现出算法偏见,即它们可能会产生基于社会身份不公平地歧视人们的输出。关于这个主题的许多研究都集中在基于性别或种族身份而使人们处于不利地位的算法偏见上。相关的伦理问题非常重要且众所周知。针对人们社会身份其他方面(例如政治倾向)的算法偏见在很大程度上仍未被探索。本文认为,针对人们政治倾向的算法偏见可能以与算法性别和种族偏见相同的方式出现。然而,它与它们有一个重要区别,因为(在民主社会中)有强烈的社会规范反对性别和种族偏见。但这并不适用于政治偏见。因此,政治偏见可以更有力地影响人们,这增加了这些偏见嵌入算法的可能性,并且使得算法政治偏见比性别和种族偏见更难发现和根除,尽管它们都会产生类似的危害。由于一些算法现在还可以轻易地在违背人们意愿的情况下识别他们的政治倾向,这些问题变得更加严重。因此,算法政治偏见带来了巨大而独特的风险,人工智能社区应该意识到并加以审视。

人工智能系统中的算法政治偏见

人工智能系统中的算法政治偏见PDF文件第1页

人工智能系统中的算法政治偏见PDF文件第2页

人工智能系统中的算法政治偏见PDF文件第3页

人工智能系统中的算法政治偏见PDF文件第4页

人工智能系统中的算法政治偏见PDF文件第5页

相关文件推荐

人工智能系统
2023 年
¥1.0
人工智能系统
1900 年
¥1.0
人工智能偏见
2025 年
¥1.0
理解人工智能偏见
2024 年
¥1.0
人工智能系统项目
2024 年
¥1.0
获取人工智能系统
2020 年
¥1.0
人工智能系统分类
2021 年
¥5.0