Loading...
机构名称:
¥ 1.0

将AI系统纳入支持决策过程以增强人类系统可以提供预测或脱离可能未引起人类的预测相关性的能力有很大的优势(Cummings,2004)。然而,除了围绕AI炒作的兴奋之外(Fishburne,2024),人们对其道德,社会和法律的影响越来越关注,尤其是对性别偏见。而不是仅仅试图以道德和合法的方式导航AI炒作,而是需要询问的第一个问题不是AI系统是否可以将AI系统纳入过程或产品中,而是首先应使用AI。正如加布里埃拉·拉莫斯(Gabriella Ramos,2024年)在联合国教科文组织的《女性4道德AI会议》上指出的:“如果我们能为妇女制作,我们就可以为所有人做到这一点。”性别偏见不仅与男人和女人的二进制定义有关,而且是将男性用作系统设计默认值的观点(Perez,2019),不包括其他性别,包括女性,这些性别占世界人口的一半以上。这种偏见不仅是一个道德问题,而且是一个系统性的问题,在整个AI生命周期中存在。

关于如何解决AI Systems中的性别偏见

关于如何解决AI Systems中的性别偏见PDF文件第1页

关于如何解决AI Systems中的性别偏见PDF文件第2页

关于如何解决AI Systems中的性别偏见PDF文件第3页

关于如何解决AI Systems中的性别偏见PDF文件第4页

关于如何解决AI Systems中的性别偏见PDF文件第5页

相关文件推荐

2025 年
¥1.0
2021 年
¥2.0
2024 年
¥2.0
2021 年
¥1.0