CRC 通过评估、调查和裁决歧视投诉以及进行合规审查来管理和执行平等机会法,从而促进平等机会。CRC 执行多项保护个人免受歧视的法律依据,包括《劳动力创新和机会法案》(WIOA)第 188 条,29 USC § 3248;劳工部实施 WIOA 第 188 条的规定(29 CFR 第 38 部分);1972 年《教育修正案》第 IX 条,20 USC §§ 1681 et seq.;以及劳工部实施第 IX 条的规定(29 CFR 第 36 部分)。本情况说明书介绍了这些保护措施如何涵盖怀孕和/或有生育能力的个人,以及受怀孕、分娩或相关医疗条件影响的个人。它还简要概述了一些额外的怀孕保护措施,这些措施未由 CRC 执行,但可能适用于涵盖的实体,特别是作为雇主的实体。根据 WIOA 第 188 条规定,免受歧视的保护:
新泽西州总检察长办公室和公民权利部(DCR)发出了本指南,以澄清新泽西州反对歧视法(LAD)如何适用于算法歧视,该算法歧视是由使用新的和新兴的数据驱动技术(例如人工智能(AI),由人工智能(AI),由雇员,女性,住所的居住地,居住在居住的人,其他人,以及其他居民,居住在其他地方,以及其他范围的人。1近年来,全国各地的企业和政府已经开始使用自动化工具来做出影响我们生活中关键方面的决策 - 被雇用或获得促销活动,他们被选为公寓租赁或获得抵押贷款或购买房屋的抵押贷款,或者接受某些医疗治疗或获得该治疗的保险。这些自动决策工具正在重塑现代社会。这些工具为受监管实体和公众带来潜在的好处。,但它们也有风险。如果这些工具不是负责任地设计和部署的,它们可能会导致算法歧视。算法歧视是由于使用自动决策工具而产生的歧视。虽然为自动决策工具提供动力的技术可能是新的,但LAD申请了算法歧视,就像长期以来对其他歧视性行为相同的方式。一个涵盖的实体(即受小伙子要求的约束)如下所述,在新泽西州,LAD禁止在就业,住房,公共住宿地点,信贷和签约方面算法歧视,并根据实际或感知的种族,宗教,宗教,色彩,国籍,性,性取向,性取向,性取向,性取向,怀孕,孕妇,性别养育,性别,性别识别,性别识别,性别表达,性别表达,性别表达,不受欢迎。
AI反偏见法案针对自动决策工具(ADTS)的监管。此类法案旨在解决围绕使用人工智能技术来做出可能对人的生活产生法律,物质或类似重大影响的相应决定的透明度和公平关注。在科罗拉多州制定了类似的措施 - (https://www.shrm.org/topics-tools/employment law-compliance/colorado-enacts-ai- law)2024年(sb 24-205-(sb 24-205-) https://www.shrm.org/topics-tools/news/talent-acquisition/nyc-ustlines-compliance-requriance-requirentess-equirentess-ai-bias law)在2023年(https://rules.cityofnewyork.us/wpp--us/wp-/wp-/wp-.us/wp-/wp-/wp-/wp-/wp--i-ai-bias law)内容/上载/2023/04/dcwp-noa for-automated-ophoy-ophoymated-ophoy-decision-decisionMaking-tools-2.pdf))。
本文介绍了中国用于协助法官量刑的人工智能 (AI) 中存在系统性种族偏见的证据。通过对一款商业刑事量刑软件进行审计实验,我发现少数民族被告的预计刑期平均比被描述犯有完全相同罪行的汉族被告长 6.2%。姓名和民族身份等种族线索都会造成这种歧视效应。这些发现适用于多个族群和犯罪类型。除了主要结果之外,我还表明,使用人工智能可能会引入人类数据中可能未曾见过的新形式的偏见。无论刑事量刑人工智能中种族偏见的意图如何,它都指向一个令人不安的场所,即威权政治通过人工智能以新的、更阴险的形式表现出来。
1。博士研究员时报学院Multan,旁遮普邦,巴基斯坦2。巴基斯坦法律最高法院的功绩法律顾问和律师 *通讯作者:amirqureshi.adv@gmail.com摘要本研究研究了数字市场中的AI驱动价格歧视,并将其与竞争法进行比较。尽管AI可以提高效率和客户福利,但它也可能导致排除和剥削后果。欧盟和中国已经实施了竞争法律和法规,以解决不公平的价格歧视,这表明并非总是有必要基于竞争法的法律反应。竞争部门必须平衡各种因素,以有效解决数字市场中AI驱动的价格歧视。它评估了滥用主导地位的潜力以及对竞争和消费者的负面影响。该研究使用法律研究方法来检查价格歧视法律及其演变,并将其与传统形式的优势进行比较。它还研究了市场效率和公平性,消费者损害和监管行动的经济论点。本文建议对AI定价和改进的消费者保护措施进行更大的规定,以防止不公平的市场条件。
本文探讨了拉丁美洲数字福利国家内算法歧视的现象。它研究了由算法驱动的自动决策过程如何使现有的社会不平等现象。该研究深入研究了拉丁美洲福利国家的政治经济学,强调了由华盛顿共识和新兴的“硅谷共识”等全球经济框架影响的过渡。通过对哥伦比亚和智利的234种公共算法和案例研究的全面分析,该论文确定了算法决策影响社会政策的关键领域。它还评估了旨在减轻算法偏见以及促进公平和包容性的机构响应和法律框架。这些发现强调了对特定地区的算法治理方法的需求,强调了上下文化的法律和监管措施的重要性,以确保非歧视国家和在数字时代获得公平的社会服务。
尽管在机器学习(ML)社区内对公平问题的认识提高了,但仍然存在关于歧视迅速增长且历史脆弱的群体的沉默:老年人。我们介绍了基于年龄的生成AI和其他普遍ML的歧视的例子,记录了年龄的隐性和明确边缘化,作为ML研究中受保护的兴趣类别,并确定一些技术和法律因素,这些技术和法律因素可能导致对这种犯罪缺乏讨论或行动。我们的目的是加深对这种经常被忽视但普遍存在的歧视形式的理解,并敦促ML研究人员,法律学者和技术公司在ML技术的开发,应用和治理中都能在开发,应用和治理中对其进行积极解决和减少。鉴于在许多公共生活和私人生活中预计广泛采用了生成AI的广泛采用,此呼吁尤其紧急。鉴于在许多公共生活和私人生活中预计广泛采用了生成AI的广泛采用,此呼吁尤其紧急。
歧视和/或骚扰是指将某人的年龄、肤色、残疾、性别(包括怀孕)、性别、性别认同、性别表达、基因信息、族裔或国籍、政治派别、种族、宗教、性取向或军人身份作为影响其就业、入学、获得学生经济援助或参加大学活动的任何因素的行为,除非适用法律允许或要求。弗吉尼亚理工大学不会以其他方式歧视询问、讨论或披露其薪酬或其他员工或申请人薪酬的员工或申请人,也不会以任何其他受法律保护的基础进行歧视。根据 1972 年《教育修正案》第 IX 条的规定,在接受联邦财政资助的教育项目和活动中基于性别的歧视包含在禁止歧视的定义中;
摘要:女性对科学技术领域贡献巨大,而女性在历史上被排除在科学领域之外,导致世界更加贫穷。尽管许多行业都存在性别差异,并继续受到性别歧视的影响(例如银行业、农业、采矿业、卡车运输业、工程业等),但在我们面向未来的人类愿景中,没有哪个行业像科学,尤其是空间科学那样占据如此重要的地位。对于在男性主导的全球航天行业工作的女性来说,太空是女性的前沿领域,有着天顶。联合国 (UN) 报告称,2016 年,航天行业只有 20% 的工人是女性,而且这一数字在三十年来没有改善。如果没有制度变革和性别文化态度的重大转变,女性就无法对抗其严峻的处境。科学与人权息息相关;参与科学可以提高女性的教育和独立性、生活机会、社会地位和基本人权。在地球上,父权制意识形态贯穿着我们的日常生活,但太空为人类开启新篇章提供了机会。关键词:空间研究、性别偏见、航天工业、性别歧视、宇航员版权所有:Bronwyn D. Lovell 引言女性对科学技术领域贡献巨大,而女性历史上被排除在科学事业之外,导致世界变得更加贫乏。多样性是学科发展的关键,而科学需要女性。尽管许多行业都存在性别差异,并且继续受到性别歧视的影响(例如银行业、农业、采矿业、卡车运输业、工程业等),但在我们面向未来的人类愿景中,没有哪个行业像科学,尤其是空间科学那样占据如此重要的地位。对于在男性主导的全球航天工业中工作的女性来说,太空是一条女性的边疆,有着天穹的天花板。联合国(UN)报告称,2016 年,航天工业中只有 20% 的工人是女性,而且这一数字在 30 年来一直没有改善(UNOOSA nd)。 20% 并不是一个令人鼓舞的数字,然而,当考虑到女性在该领域往往扮演的低级角色时,女性在航天工业中的处境就更加糟糕了。例如,截至 2019 年 1 月,NASA 劳动力信息立方体显示,其男性员工数量几乎是女性员工数量的两倍(11,343 人对 5,884 人)。然而,仔细观察,从事工程职位的男性人数是女性的三倍多(8,208 人对 2,419 人)。担任高级科学职位的男性人数是女性的五倍多(76 人对 13 人),担任高级管理职位的男性人数是女性的两倍多(279 人对 119 人)。相反,担任一般行政职务的女性多于男性(1,333 人对 706 人)。从这些数据来看,我们可以看到,尽管女性在全球航天领域占比 20%,但她们获得特权的可能性远低于男性。因此,即使女性参与航天工业,她们作为一个群体,也不能说是充分或平等地参与。