1 Denis J Galligan,酌处权:官方酌处权法律研究(OUP 1990)。2 Reuben Binns,Lilian Edwards和Rebecca Williams,“法律和监管框架,负责使用自动决策做出和公共部门身体的辅助决策”(2021)TLEF工作文件 2024年6月6日访问。3 Marion Oswald,“公共部门的算法协助决策:使用控制酌情权力的行政法规则构建问题”(2018年)皇家学会A 376的哲学交易; Binns,Edwards和Williams(n 2)。
某些形式的歧视是可见的,并且男女都能直接感知到,例如,由于“博士”头衔与男性有关,算法拒绝女性进入健身房的女储物柜。9 其他形式则是不可见的,例如,算法在完全自动化的申请程序中对简历进行排序,不会因为性别而选择女性或男性。10 其他行为不一定跨越欧盟法律规定的反歧视行为门槛,但显然在性别偏见、刻板印象 11 和性别平等政策目标方面构成问题。因此,它不仅对总体性别平等构成威胁,而且具体为未来的性别歧视铺平了道路。除了用于训练算法的数据集中包含的偏见和刻板印象 12 以及在算法的设计和编程中有意或无意地引入偏见之外,13 还有另一个可能导致性别不平等的潜在问题:自早期以来,“人工智能社区的性别构成” 14 极大地影响了算法的形成方式,从而影响了算法的工作方式,导致潜在的歧视性结果。