摘要:女性对科学技术领域贡献巨大,而女性在历史上被排除在科学领域之外,导致世界更加贫穷。尽管许多行业都存在性别差异,并继续受到性别歧视的影响(例如银行业、农业、采矿业、卡车运输业、工程业等),但在我们面向未来的人类愿景中,没有哪个行业像科学,尤其是空间科学那样占据如此重要的地位。对于在男性主导的全球航天行业工作的女性来说,太空是女性的前沿领域,有着天顶。联合国 (UN) 报告称,2016 年,航天行业只有 20% 的工人是女性,而且这一数字在三十年来没有改善。如果没有制度变革和性别文化态度的重大转变,女性就无法对抗其严峻的处境。科学与人权息息相关;参与科学可以提高女性的教育和独立性、生活机会、社会地位和基本人权。在地球上,父权制意识形态贯穿着我们的日常生活,但太空为人类开启新篇章提供了机会。关键词:空间研究、性别偏见、航天工业、性别歧视、宇航员版权所有:Bronwyn D. Lovell 引言女性对科学技术领域贡献巨大,而女性历史上被排除在科学事业之外,导致世界变得更加贫乏。多样性是学科发展的关键,而科学需要女性。尽管许多行业都存在性别差异,并且继续受到性别歧视的影响(例如银行业、农业、采矿业、卡车运输业、工程业等),但在我们面向未来的人类愿景中,没有哪个行业像科学,尤其是空间科学那样占据如此重要的地位。对于在男性主导的全球航天工业中工作的女性来说,太空是一条女性的边疆,有着天穹的天花板。联合国(UN)报告称,2016 年,航天工业中只有 20% 的工人是女性,而且这一数字在 30 年来一直没有改善(UNOOSA nd)。 20% 并不是一个令人鼓舞的数字,然而,当考虑到女性在该领域往往扮演的低级角色时,女性在航天工业中的处境就更加糟糕了。例如,截至 2019 年 1 月,NASA 劳动力信息立方体显示,其男性员工数量几乎是女性员工数量的两倍(11,343 人对 5,884 人)。然而,仔细观察,从事工程职位的男性人数是女性的三倍多(8,208 人对 2,419 人)。担任高级科学职位的男性人数是女性的五倍多(76 人对 13 人),担任高级管理职位的男性人数是女性的两倍多(279 人对 119 人)。相反,担任一般行政职务的女性多于男性(1,333 人对 706 人)。从这些数据来看,我们可以看到,尽管女性在全球航天领域占比 20%,但她们获得特权的可能性远低于男性。因此,即使女性参与航天工业,她们作为一个群体,也不能说是充分或平等地参与。
尽管我们知道妇女在立法机关中的存在对公民看待该机构的看法对妇女的影响对高等法院合法性的影响知之甚少。我们认为,尽管公众对法院的期望有所不同,但妇女在高等法院的存在确实会影响公民对合法性的看法。但是,这种影响取决于公民所拥有的偏见的水平和类型。也就是说,当一个人对妇女感到敌对的偏见时,偏见破坏了法院可能获得的潜在合法性。另一方面,我们认为仁慈的性别歧视并没有引发公民如何看待民主中的高等法院的任何变化。利用实验的证据,我们发现妇女在高等法院的存在对公民对法院合法性的看法有很大的积极影响,尽管并不是有敌对性别偏见的人。
摘要 本研究通过实验测试参与者对人工智能 (AI) 招聘人员的看法。它使用 2(专业 AI/通才 AI)× 2(性别歧视/非性别歧视)设计来测试这些标签与道德违规感知之间的关系。理论框架是计算机是社会行为者 (CASA) 和精细化可能性模型 (ELM) 方法的整合。参与者 (n = 233) 在阅读了四种涉及 AI 招聘人员评估求职者的场景之一后回答了一份在线问卷。结果发现,CASA 中的“心不在焉”概念是情境化的,取决于问题是通过中心路线还是外围路线处理的。此外,这项研究表明,CASA 可以用第三人称视角解释对机器的评估。此外,对 AI 的感知与其决策之间存在区别。此外,研究发现,与人工智能代理的专家身份相比,参与者对人工智能代理的性别歧视更为敏感,因为性别歧视更加拟人化、更具情感吸引力。
•桥梁(通过多样性,增长,公平和可持续性建立研究和创新)研究生奖:该奖项向受训者开放,他们自称是黑人,原住民,梅蒂斯和因纽特人,或其他种族化群体。CAMH致力于为受训者培养一个更公平,多样化和包容性的研究环境。•Koerner研究生奖:该奖项向所有合格的申请人开放,但最少的人数专用于自我认同成员的申请人,该申请人来自代表性不足的团体:原住民,因纽特人和梅蒂斯;种族化的人,妇女,2SLGBTQ+和/或残疾人,与CAMH,加拿大政府保持一致,以及三个机构的优先级,以通过相互的镜头来解决加拿大机构的系统性种族主义,性别歧视和歧视,以解决所有参与所有有才华的人的全身障碍,并限制参与人才的全面参与,并与众不同。它反映了CAMH致力于为受训者提供更公平,多样化和包容性的研究环境。
此外,并非所有对AI透明度的担忧都是如此之高。有些担忧也更加脚踏实地。认为AI威胁要加剧当前歧视的人。担心,不透明的AI产生了促进种族主义,性别歧视和其他形式歧视的新方法,以及隐藏这种歧视的新方法。人类将继续以可预测的方式成为种族主义。这将部分归因于不透明的过程,这些过程指导了人类如何做出决定。,但是AI将创造新的种族主义方式。,它将创造新的方式来掩盖种族主义。这将是由于指导AI做出决定的不透明过程。AI可能与人类一样透明,理由是作出决定的原因。,但它的不透明性隐藏了支持和维持人类不透明度不存在的偏见的新方法。解决不透明人工智能中种族偏见的担忧,ZKMG(2019年,第673页)说:
出售/共享(例如,必须了解Facebook组,课程英雄,Chegg等)未经明确许可的记录不允许录制(音频或视频),不得分发录音r学生将被期望学生承诺在Western承诺提供一个不受骚扰和歧视的学习和工作环境之前采取学术诚信保证。所有学生,教职员工和教职员工都在这一承诺中发挥作用,并有责任确保和促进安全,尊重的学习和工作环境。相关政策包括西方的非歧视/骚扰政策(M.A.P.P.1.35)和非歧视/骚扰政策 - 行政程序(M.A.P.P.1.35)。经历或证人行为可能是骚扰或歧视的任何学生,教职员工或教职员工都必须向西方人权办公室报告该行为。骚扰和歧视可以是基于人权的,也称为基于EDI的(性别歧视,种族主义,跨性别恐惧症,同性恋恐惧症,伊斯兰恐惧症,仇外心理,反犹太主义和能力主义)或非人类权利(个人骚扰或工作场所骚扰)。
Herne Hill Road医学实践对骚扰和滥用员工,访客或患者的零容忍政策,包括(但不限于)同性恋,双胞胎,恐惧症,跨性别恐惧症,种族主义,性别歧视,性别歧视,年龄歧视或骚扰或骚扰或虐待或虐待残疾,婚姻,婚姻或民间伙伴关系,怀孕或宗教,宗教或宗教,宗教,宗教或宗教。,如果以虐待或暴力的方式对待工作人员,则赫恩希尔路医疗实践非常重视这一点。该做法支持政府为卫生服务人员的“零容忍”运动。这说明GPS及其员工有权照顾他人,而不必担心会受到攻击或虐待。必须在所有员工和患者之间成功提供这些服务。我们的练习人员的目标是对所有患者的个人需求和环境都充满礼貌,乐于助人和敏感。他们会尊重地提醒患者,经常会同时遇到多种不同的,有时甚至有时艰巨的任务和情况。
人工智能领域(AI)中许多组织的既定目标是开发人工通用情报(AGI),这是一个想象中的系统,其智能比我们见过的任何事物都要多。没有认真质疑该系统是否可以并且应该建立,研究人员正在努力创建“安全的AGI”,“对所有人类有益”。我们认为,与可以按照标准工程原则进行评估的特定应用的系统不同,无法对“ AGI”这样的未定义系统进行安全测试。为什么为什么要在AI领域构建AGI通常是毫无疑问的目标?在本文中,我们认为激励大部分目标的规范框架植根于20世纪的盎格鲁裔美国优生学传统。结果,过去许多使优生主义者动画的歧视性态度(例如,种族主义,仇外心理,阶级主义,能力主义和性别歧视)在建立AGI的运动中仍然很普遍,导致系统损害边缘化群体和集中权力的系统,同时使用“安全”的语言和“受益于人类”来逃避问责制。我们通过敦促研究人员努力制定可以制定安全协议的定义任务,而不是试图建立一个大概是全知的系统(例如AGI)。
欧洲委员会法律文书 11 欧洲委员会 2014-2017 年和 2018-2023 年性别平等战略 12 欧洲委员会新的 2024-2029 年性别平等战略:新出现的挑战 14 全球背景下的欧洲委员会:联合国 2030 年可持续发展议程 18 新的 2024-2029 年性别平等战略:其使命以及战略和业务目标 21 战略目标 1 – 防止和打击性别刻板印象和性别歧视 23 战略目标 2 – 防止和打击针对妇女和女孩的暴力行为以及家庭暴力 28 战略目标 3 – 确保妇女和女孩平等获得司法服务 36 战略目标 4 – 实现妇女和男子均衡参与政治、公共、社会和经济生活 40 战略目标 5 – 确保妇女赋权和性别平等应对全球和地缘政治挑战 47 战略目标 6 – 实现性别主流化,并在所有政策和措施中纳入交叉方法 50 机构设置、资源和工作方法 55 伙伴关系 57 交流 59 附录 – 缩写列表 60
摘要:人工智能 [1] 在美学领域的出现正在改变美的概念,并重新激发革命性的社会正义观点。由大数据驱动的机器学习工具决定了美本身,从而否定了长期主导话语的文化和历史解释。为了反驳这些论点,人工智能对美的量化提供了一个“公平”的解决方案;尽管如此,人工智能将复制当前的偏见。例如,人工智能在面部分析和照片编辑中的应用只会增强种族主义和性别歧视,从而引起人们对外表和描绘美的标准的许多焦虑。它直接将共同的文化差异的前景置于危险之中,这令人担忧,因为它削弱了多样性的概念。此外,人工智能赋予公众而不是专家权力,将普通人的品味和偏好神圣化,从而限制了创造性和创新过程,以利于大众的大众文化标准。人工智能在这些美学领域的精神和政治是一个敏感领域,应该谨慎处理,因为它延续了社会不公。当这些偏见被消除,并为人工智能设定更好的学习标准时,人工智能就有可能提升审美领域和整个社会。本文批判性地分析了人工智能审美标准制定的后果,并呼吁以更谨慎的方式实施人工智能,以改善社会的丰富多样性,而不是消灭它。