人工智能偏见尤其会影响受歧视的群体和少数群体。Broussard (2023) 解释了人工智能主导的算法和程序如何加剧针对黑人和酷儿群体的数据偏见,例如跨性别者被身体扫描仪标记为“异常”,或者社交媒体平台无法对性别不符身份进行分类 [8]。另一个例子是伪科学技术,它错误地声称可以根据个人的性别认同 [9] 和/或性取向 [10] 来识别个人。在 FIMI 的背景下,这种自动化且看似“中立”的程序可能会被滥用,用于针对个人和特定社区。此外,已经显而易见的是,日益自动化(和有偏见)的内容审核系统对 LGBTIQ+ 社区产生了不成比例的影响 [11]。需要更多研究来了解这对针对 LGBTIQ+ 社区的 FIMI 有何影响 [12]。
主要关键词