某些形式的歧视是可见的,并且男女都能直接感知到,例如,由于“博士”头衔与男性有关,算法拒绝女性进入健身房的女储物柜。9 其他形式则是不可见的,例如,算法在完全自动化的申请程序中对简历进行排序,不会因为性别而选择女性或男性。10 其他行为不一定跨越欧盟法律规定的反歧视行为门槛,但显然在性别偏见、刻板印象 11 和性别平等政策目标方面构成问题。因此,它不仅对总体性别平等构成威胁,而且具体为未来的性别歧视铺平了道路。除了用于训练算法的数据集中包含的偏见和刻板印象 12 以及在算法的设计和编程中有意或无意地引入偏见之外,13 还有另一个可能导致性别不平等的潜在问题:自早期以来,“人工智能社区的性别构成” 14 极大地影响了算法的形成方式,从而影响了算法的工作方式,导致潜在的歧视性结果。
近年来,理论和实证研究对亲属选择在塑造性冲突模式中所起的作用产生了浓厚兴趣,尤其关注男性伤害特征。然而,这项工作仅关注常染色体基因,因此仍不清楚人口统计学如何调节基因组其他部分(如性染色体和细胞质元素)中男性伤害基因座的进化。为了研究这一点,我们扩展了现有的性冲突模型,以应用于这些不同的遗传模式。我们首先分析一般情况,揭示性别特异性相关性、生殖价值和当地竞争强度如何结合起来决定男性伤害的可能性。然后,我们分析了一系列人口统计学明确的模型,以评估分散、世代重叠、生殖偏差和人口调节机制如何影响整个基因组的性冲突,并推动核基因和细胞质基因之间的冲突。然后,我们探讨性别偏见对这些人口统计学参数的影响,展示它们如何进一步加剧常染色体和性染色体之间的冲突。最后,我们概述了如何使用不同的交叉方案来识别这些基因组内冲突的特征。
摘要 本研究通过实验测试参与者对人工智能 (AI) 招聘人员的看法。它使用 2(专业 AI/通才 AI)× 2(性别歧视/非性别歧视)设计来测试这些标签与道德违规感知之间的关系。理论框架是计算机是社会行为者 (CASA) 和精细化可能性模型 (ELM) 方法的整合。参与者 (n = 233) 在阅读了四种涉及 AI 招聘人员评估求职者的场景之一后回答了一份在线问卷。结果发现,CASA 中的“心不在焉”概念是情境化的,取决于问题是通过中心路线还是外围路线处理的。此外,这项研究表明,CASA 可以用第三人称视角解释对机器的评估。此外,对 AI 的感知与其决策之间存在区别。此外,研究发现,与人工智能代理的专家身份相比,参与者对人工智能代理的性别歧视更为敏感,因为性别歧视更加拟人化、更具情感吸引力。
