MV Lee Badgett,《对 LGBT 群体的污名化和排斥的经济成本:印度案例研究》(世界银行,2014 年 10 月)。另见 Andrew Flores 等人,《塞尔维亚共和国劳动力市场基于性取向、性别认同和表达以及性别特征的排斥的经济成本》(世界银行,2023 年);Andrew Flores 等人,《北马其顿共和国劳动力市场基于性取向、性别认同和表达以及性别特征的排斥的经济成本》(世界银行,2023 年 9 月)。3.
NYU Tandon学校重视我们所有学生的包容性和公平环境。我希望在此班上培养一种社区感,并认为这是一个背景,信仰,种族,民族起源,性别认同,性取向,性取向,宗教和政治隶属关系以及能力的个人。我的目的是,所有学生的学习需求都可以在课堂上和外出,并且学生带给本课程的多样性被视为一种资源,优势和利益。如果该标准没有得到维护,请随时与我交谈。
新泽西州总检察长办公室和公民权利部(DCR)发出了本指南,以澄清新泽西州反对歧视法(LAD)如何适用于算法歧视,该算法歧视是由使用新的和新兴的数据驱动技术(例如人工智能(AI),由人工智能(AI),由雇员,女性,住所的居住地,居住在居住的人,其他人,以及其他居民,居住在其他地方,以及其他范围的人。1近年来,全国各地的企业和政府已经开始使用自动化工具来做出影响我们生活中关键方面的决策 - 被雇用或获得促销活动,他们被选为公寓租赁或获得抵押贷款或购买房屋的抵押贷款,或者接受某些医疗治疗或获得该治疗的保险。这些自动决策工具正在重塑现代社会。这些工具为受监管实体和公众带来潜在的好处。,但它们也有风险。如果这些工具不是负责任地设计和部署的,它们可能会导致算法歧视。算法歧视是由于使用自动决策工具而产生的歧视。虽然为自动决策工具提供动力的技术可能是新的,但LAD申请了算法歧视,就像长期以来对其他歧视性行为相同的方式。一个涵盖的实体(即受小伙子要求的约束)如下所述,在新泽西州,LAD禁止在就业,住房,公共住宿地点,信贷和签约方面算法歧视,并根据实际或感知的种族,宗教,宗教,色彩,国籍,性,性取向,性取向,性取向,性取向,怀孕,孕妇,性别养育,性别,性别识别,性别识别,性别表达,性别表达,性别表达,不受欢迎。
egle促进了密歇根州居民在法律,法规和政策的制定,实施和执行方面的公平待遇和有意义的参与。公平待遇意味着,没有任何人在政府,工业或商业行动和政策所带来的负面后果中占不成比例的份额。有意义的参与意味着所有人都有机会参与影响其环境和/或健康的决策。egle不会基于种族,性别,宗教,年龄,国籍,颜色,婚姻状况,残疾,政治信仰,身高,体重,遗传信息或性取向的任何计划或活动的性取向,并根据适用的法律和法规要求恐吓和报复。
塔尔萨技术不会基于种族,颜色,性别,怀孕,性别,性别表达或认同,国籍,宗教,残疾,退伍军人地位,性取向,性取向,年龄或遗传信息。已指定以下人员来处理有关非歧视政策的询问:可以通过电话(918)828-5081与Pam Winterscheidt联系,首席人力资本官,电子邮件pam.winterscheidt@tulsatech.edu或通过3638 S. S. Memorial Dr. -4 th Flodle -4 the flop. -4 the flop. -4 the flop. -4 the Memoref corment cornement in协调员。可以通过电话(918)828-5295与METCALF女士联系,电子邮件michelle.metcalf@tulsatech.edu或通过人3638 S. Memorial Dr.
(a) "Algorithmic discrimination" means any condition in which the use of using an artificial intelligence system results in an unlawful differential treatment or in a manner that discriminates, causes a disparate impact that disfavors an individual, or otherwise makes unavailable the equal enjoyment of goods, services, or group of individualsother activities or opportunities as related to a consequential decision on the basis of their actual or perceived age, color, disability, ethnicity,遗传信息,英语,国籍,种族,宗教,追求或接受生殖医疗保健,性别,性取向,性取向,性别认同,退伍军人身份或其他根据本州或联邦法律法律保护的其他分类的遗传信息。(b)“算法歧视”不包括:
摘要:人们越来越认识到人工智能 (AI) 的政治、社会、经济和战略影响的重要性。这引发了有关人工智能编程、使用和监管的重要伦理问题。本文认为,人工智能的编程和应用本质上都是 (顺) 性别化、性化和种族化的。毕竟,人工智能是由人类编程的,因此,谁来训练人工智能、教它学习以及这样做的伦理问题对于避免 (顺) 性别化和种族主义刻板印象的重现至关重要。本文的实证重点是欧盟资助的 iBorderCtrl 项目,该项目旨在通过实施多种基于人工智能的技术(包括面部识别和欺骗检测)来管理安全风险并提高第三国国民的过境速度。本文汇集了 1) 风险与安全 2) 人工智能与道德/移民/庇护以及 3) 种族、性别、(不)安全与人工智能等领域的文献,探讨了谎言检测对常规过境和难民保护的影响,概念重点关注性别、性取向和种族的交叉点。我们在此认为,iBorderCtrl 等人工智能边境技术存在重大风险,不仅会进一步边缘化和歧视 LGBT 人士、有色人种和寻求庇护者,还会强化现有的非入境做法和政策。
弗吉尼亚合作扩展计划和就业计划对所有人都开放,无论年龄,颜色,残疾,性别,性别认同,性别表达,民族血统,政治隶属关系,种族,宗教,性取向,性取向,遗传信息,资深身份或任何其他受法律保护的基础。机会平等/平权行动雇主。发行了有关合作推广工作,弗吉尼亚理工学院和州立大学,弗吉尼亚州立大学以及美国农业部合作的发行。埃德温·琼斯(Edwin J. M. Ray McKinnie,彼得斯堡弗吉尼亚州立大学的1890年扩展计划管理员。
