为此,接受以下签名:收缩的电子签名,并涉及证明电子签名与特定人员链接的虚拟文档; Adobe可以真实生成的数字类型;仅当签名清晰时,签名类型才会被接受,而在图像中没有证明它没有背景并且是透明的。
“红线”等政策的遗产是分区城市创建种族分离的社区并限制某些人口更健康的社区的过程 - 尽管数十年来是非法的,但仍对有色社区产生了持久和长期的负面影响。32尽管不再被贷款人明确地认为“危险”,但它们仍然被视为贫困或有风险的投资。这些歧视性实践中的某些实践与强调红线等政策相同的种族主义所延续。其他人是由于已深入编码信用评分系统的偏见而导致的,这使得生活在这些社区中的潜在租房者和购房者似乎不值得信誉,并且可以推动歧视。33如果没有获得良好的信用,租金,购买或维护健康的房屋可能会很困难,并且受影响的社区可能会更迅速地失修。
Jane speight*, Elizabeth Holmes-Truscott*, Matthew Garza, Renza Scilia, Sabinna Wagner, Asuka Kato, Victor Pedrero, Sonya Deschênes, Susan J Guzman, Shengxin Liu, Ingrid Willaing, Katie M Babbott, Bryan Cleal, Jane K Dickinson, Jennifer a Hallday , Emear C Morrisesy, Giesje nefs, Shane O'Donnell, Anna Seerlachius, Pwiss, Hamzah Alzubaidi, Bustanul Arifin, Liz Cambron-Kopco, Corinna Ana, Emma Dadsen, Mary de Groot, Martje de Wit, Phyllisa Deroze, Stephanie Haack, Richard I G holt, Wales Jensen, Karoline Kragelund Nielsen, Tejal Lathia, Christopher J Lee, Bridget Mcnulty, Diana Naranjo, Rebecca L Porl, Suman Prinjha, Rebeccaa M Puhl, Anita Sabidi, Chitra Selvan, Jazz Sethhi, Mohammed Seyam, Jackie sturt, Mythily Subramaniam, Helle Trkildsen Maindal,Virginia Valentine,Michael Vallis,Timothy C Skyner。
摘要 社会和教育本质上是残障人士歧视的。残疾人通常被排除在教育之外,或者在教育系统中的成绩较差。改善有色人种的教育经历和成果需要教育工作者设计反种族主义课程,明确解决种族不平等问题。在这里,我们在一篇由一位残疾生物科学学生和一位身体健全的生物科学教员合著的文章中探讨了生物科学教育中平行的反残障人士歧视方法。我们的工作以批判残疾理论为基础,借鉴了残疾和教育学研究以及我们自己的经验。生物科学有一种独特的需要,即面对其在优生学伪科学方面的不光彩历史,这导致了对残疾人的歧视和侵犯人权。我们简要介绍了生物科学研究与优生学之间的关系,并探讨了这一遗产如何影响当今的生物科学教育。然后,我们提出了一个反残障人士歧视生物学教育的推荐结构。我们的方法不仅限于为残疾人提供便利,还建立了一个模型,教育所有学生了解残疾问题,并赋予他们挑战残疾歧视的言论和做法的能力。
摘要:大数据和人工智能(“AI”)正在彻底改变公司、政府和雇主对个人进行分类的方式。然而,令人惊讶的是,这场革命对反歧视制度造成的最重要威胁之一在现有文献中基本上未被探索或误解。这就是现代算法会导致“代理歧视”的风险。代理歧视是差别影响的一个特别有害的子集。与所有形式的差别影响一样,它涉及一种表面上中立的做法,但这种做法对受保护阶层的成员造成了不成比例的伤害。但产生差别影响的做法只有当表面上中立的做法对歧视者的用处至少部分来自于它产生差别影响这一事实时,才构成代理歧视。从历史上看,这种情况发生在一家公司故意试图通过依赖类别成员代理(例如邮政编码)来歧视受保护类别的成员时。但是,当受保护类别的成员身份可以预测歧视者表面上中立的目标时,代理歧视就不一定是故意的,从而使歧视变得“合理”。 在这些情况下,公司可能会在不知不觉中代理歧视,只知道表面上中立的做法会产生理想的结果。本文认为,人工智能和大数据是这种无意但“合理”的代理歧视风险的游戏规则改变者。拥有大数据的人工智能天生就具有代理歧视的结构,只要它们被剥夺了有关法律上可疑类别成员身份的信息,而该类别的预测能力无法通过人工智能可用的非可疑数据更直接地衡量。简单地拒绝 AI 访问这些预测性但可疑特征的最直观代理,对于阻止这一过程几乎没有作用;相反,它只会导致 AI 找到不太直观的代理。出于这些原因,
避免歧视性地使用人工智能 美国教育部 (Department's) 民权办公室 (OCR) 提供此资源,以帮助学校社区确保人工智能 (AI) 在全国中小学和高等教育机构中以符合联邦民权法的非歧视性方式使用。i 在本资源中,AI 是指基于机器的系统,该系统可以针对给定的一组人类定义的目标,做出影响真实或虚拟环境的预测、建议或决策。ii 人工智能技术有可能为所有学生增加机会并提高教育公平性。与此同时,人工智能在学校中的使用越来越多,包括出于教学和学校安全目的,以及人工智能大规模运行的能力可能会造成或加剧歧视。
歧视和/或骚扰是指将某人的年龄、肤色、残疾、性别(包括怀孕)、性别、性别认同、性别表达、基因信息、族裔或国籍、政治派别、种族、宗教、性取向或军人身份作为影响其就业、入学、获得学生经济援助或参加大学活动的任何因素的行为,除非适用法律允许或要求。弗吉尼亚理工大学不会以其他方式歧视询问、讨论或披露其薪酬或其他员工或申请人薪酬的员工或申请人,也不会以任何其他受法律保护的基础进行歧视。根据 1972 年《教育修正案》第 IX 条的规定,在接受联邦财政资助的教育项目和活动中基于性别的歧视包含在禁止歧视的定义中;
印度摘要 - 随着数字内容产生的增加,深层假图像已成为日益关注的问题,对隐私,安全性和信誉构成威胁。本文介绍了基于生成对抗网络(GAN)的深假伪造图检测工具的研究,该工具的目的是将真实图像与合成生成的图像区分开。通过利用深度学习,特别是GAN框架的歧视者,该系统确定了深层假图像中的不一致之处,为在媒体验证,网络安全和法律应用等各个领域提供可靠的检测提供了可靠的检测。我们的系统采用了发电机 - 歧视器架构,在该架构中训练了鉴别器以识别发电机生成的假图像,从而提高了其发现深色伪造的Telltale迹象的能力。在真实图像和虚假图像的广泛数据集上进行了培训,该模型能够学习细微的差异并准确地标记合成内容。该工具的目标是增强操纵图像的检测,这是需要图像真实性验证的帮助扇区。关键字 - 深处伪造,深伪,对抗网络,机器学习,生成对抗网络(GAN)
句子并非所有的人都平衡。另一方面,某些人群目前的数据比其他人的数据少。这可以是历史的,例如因为过去的医疗尝试主要是用白人进行的。相反,某些小组有许多有关比例的数据,例如,如果在预先的领域显示了已经观察到许多犯罪的警察工作(预测政策),则由于数据分析更加受控,因此发现了更多的刑事案件。还可以收集数据的方式和何处可以决定培训数据的余额:例如,如果数据为在互联网上提出,通常代表女性。如果对Ki系统进行了有关不代表该系统应用的人的人的数据培训的数据,也可能会出现偏见。例如在美国居住的人可能不适合适用于瑞士人的Trai肾脏的AI系统。