Program Criteria for Admission Advanced Manufacturing: Industrial Maintenance Electrical Advanced Manufacturing: Welding Agriculture: Ag Mechanical & Engineering Agriculture: Agriscience (Plant/Animal) Agriculture: Natural Resources Agriculture: Precision Agriculture Construction: Building Trades Construction: Civil Arts, AV Tech & Comm: Digital Design Arts, AV Tech & Comm: Radio/TV Business Finance & Marketing: Business Administration Business Finance & Marketing: Finance & Investment Business Finance & Marketing: Marketing & Sales Education & Training: Early Childhood Education Education & Training: Education Careers Health Sciences: Pre-Nursing/CNA Health Sciences: Emergency Medical Tech Hospitality & Tourism: Culinary Arts Human Services: Cosmetology Human Services: Human & Social Services Information Technology: Cybersecurity Law & Public Safety: Criminal Justice STEM: Biotechnology STEM: Engineering Transportation: Automotive Services
马萨诸塞大学校长办公室(“校长办公室”)禁止在教育、录取、访问或在其计划、服务、福利、活动以及大学所有就业条款和条件方面的非法歧视、骚扰(包括性骚扰)和报复,并遵守州和联邦法律(包括第 IX 条、第 VII 条、1973 年《康复法》第 504 节、1990 年《美国残疾人法》修正案、1963 年《同工同酬法》和马萨诸塞州反歧视法。这些非歧视和骚扰程序(“程序”)提供了一种迅速而公平的机制,校长办公室可通过该机制识别、应对和防止违反校长办公室非歧视和骚扰政策(文件 T16-040)(“政策”)的歧视、骚扰和报复事件。
摘要AI中的公平性话题,如命运(AI)社区中的命运(公平,问责制,透明度和道德规范)所引起的,在过去几年中引发了有意义的讨论。但是,从法律的角度来看,特别是从欧盟法律的角度来看,仍然存在许多公开问题。算法公平旨在减轻设计级别的结构不平等,而欧洲非歧视法是针对部署AI模型后的个体歧视案例量身定制的。AI ACT可能会通过将非歧视责任转移到AI模型的设计阶段来弥补这两种方法迈出巨大的一步。基于对AI法案的综合阅读,我们对法律以及技术执行问题发表评论,并提出对偏见检测和偏见校正的实际含义,以指定并符合特定的技术要求。
遵守1964年《民权法》第六章,1990年的《美国残疾人法》以及其他联邦和州歧视法律和法规是沃卢西亚县的政策。该县禁止其所有计划,服务和活动中的员工,承包商和顾问歧视。该县致力于确保任何人都没有被排除在于种族,颜色,性别,宗教,国籍,年龄,年龄,收入,残疾或家庭状况的参与或剥夺其服务的好处。
克里斯托弗·纽波特大学(Christopher Newport University)致力于提供一个强调其社区每个成员的尊严和价值的环境 法律。这样的环境对于健康的学习,工作和生活氛围是必要的,因为歧视和骚扰破坏了人类的尊严以及校园中每个人之间的积极联系。为了实现这一目标,根据cnu.edu.edu/titleixeo/titleix/policy的歧视,骚扰和性行为不端的不良政策,将以效率和能量的效率和能量来解决这些基础上的任何不允许歧视和/或骚扰的问题。
摘要 在过去十年中,人们越来越担心使用人工智能系统所产生的风险。使用这些系统的主要问题之一是,它们已被证明会对平等和非歧视的基本权利造成损害。在此背景下,我们必须审查旨在解决这一特定问题的现有和拟议监管文书,特别是考虑到将法律文书(特别是平等和非歧视法律框架)的抽象性质应用于编码旨在非歧视的人工智能工具时所需的具体指令的困难。本文重点研究了新欧盟人工智能法案提案的第 10 条如何成为适应算法系统需求的新形式监管的起点。
2.1. 确保采用符合平等和非歧视原则的招聘和选拔标准和程序,不论是基于性别还是其他因素。 2.2. 确保评估和晋升过程的透明度,以避免基于性别或其他歧视性因素的偏见。 2.3. 公开在学校、专业或评估表现范围内保护工人和学生的法律机制,即关于保护父母身份的机制。 2.4. 鼓励采用支持和辅导措施,以促进在决策、管理和领导角色中被认为具有歧视性因素的人员在质量和/或数量上的均衡代表性。 2.5. 尽可能促进陪审团、小组、委员会和其他招聘和评估机构中的性别平等。
4. 人工智能系统的设计和目的也至关重要。为效率、盈利或其他目标而优化的算法,如果没有充分考虑到保障平等和非歧视的需要,可能会造成直接或间接的歧视,包括基于性别、性别特征、年龄、国籍或族裔出身、肤色、语言、宗教信仰、性取向、性别认同、性别特征、社会出身、婚姻状况、残疾或健康状况等各种理由的联想歧视。因此,人工智能系统从一开始就充分尊重平等和非歧视,并在部署前和部署后定期进行严格测试,以确保这些权利得到保障,这一点尤为重要,因为无论这些系统的使用在哪里可能会影响到基本权利的获得。