人工智能如何通过社会化表现出偏见
机构名称:
¥ 1.0

语音助手和人工智能很可能将社会刻板印象与男性和女性联系起来。这是因为男性是人工智能创造者的大多数,而人工智能反映了他们的短语和信念 (Leavy, 2018)。此外,人工智能可以学习的文献中也内置了这些刻板印象 (Leavy, 2018)。在 Susan Leavy 所做的一项研究中,以下是人工智能对男性和女性最常见的描述:

人工智能如何通过社会化表现出偏见

人工智能如何通过社会化表现出偏见PDF文件第1页

人工智能如何通过社会化表现出偏见PDF文件第2页

人工智能如何通过社会化表现出偏见PDF文件第3页

人工智能如何通过社会化表现出偏见PDF文件第4页

人工智能如何通过社会化表现出偏见PDF文件第5页

相关文件推荐

人工智能偏见
2025 年
¥1.0
理解人工智能偏见
2024 年
¥1.0