某些形式的歧视是可见的,并且男女都能直接感知到,例如,由于“博士”头衔与男性有关,算法拒绝女性进入健身房的女储物柜。9 其他形式则是不可见的,例如,算法在完全自动化的申请程序中对简历进行排序,不会因为性别而选择女性或男性。10 其他行为不一定跨越欧盟法律规定的反歧视行为门槛,但显然在性别偏见、刻板印象 11 和性别平等政策目标方面构成问题。因此,它不仅对总体性别平等构成威胁,而且具体为未来的性别歧视铺平了道路。除了用于训练算法的数据集中包含的偏见和刻板印象 12 以及在算法的设计和编程中有意或无意地引入偏见之外,13 还有另一个可能导致性别不平等的潜在问题:自早期以来,“人工智能社区的性别构成” 14 极大地影响了算法的形成方式,从而影响了算法的工作方式,导致潜在的歧视性结果。
在帮助研发 COVID-19 疫苗并与他人共同获得诺贝尔医学奖之前,卡塔琳·卡里科 (Katalin Karikó) 的故事对许多女性来说都很熟悉:她面临资金匮乏、认可不足、被降职,最终被大学开除 1 。尽管卡里科成功克服了这些巨大的障碍,但更多的女性因普遍存在的性别歧视和骚扰而选择离开学术界。一项针对 25 万美国学者的大规模研究为这种基于性别的人员流失提供了越来越多的证据 2 。作为现任和前任机构负责人和研究领导者,我们认为,这种离职以及相关女性人才的流失会造成巨大的科学和经济损失,并概述了提高学术部门效率的改革措施。
摘要。本文描述了存在于2025年的社交网络中性别歧视识别的实验室,该实验室预计将在CLEF 2025会议上举行,代表了现有挑战的第五版。该实验室包括两种语言,英语和西班牙语的九项任务,这些任务与三种不同类型的数据相同的三个任务(性别歧视,来源意图检测和性别歧视分类)。这种多媒体方法将有助于确定跨媒体格式和用户互动的性别歧视的趋势和模式,从而有助于更深入地了解社会动态。与2023年和2024年存在一样,该版本将使用“以分歧”的方式使用“学习”。九个任务的数据集将包括来自多个注释的注释,显示不同甚至相互矛盾的意见。这有助于模型从不同的角度学习,使它们更好地理解一系列人类观点,并为有效的以人为本的解决方案发展。
“性别歧视和种族主义通过为再生产辩护的技术而再生产。当这些话被驳回时,我们目睹了对现状的辩护:这是一种说法,没有什么不对;性别歧视和种族主义的系统性被性别歧视和种族主义的系统性所掩盖……我们需要破坏这种制度,阻止这种制度发挥作用……提出女权主义观点、反种族主义观点、痛点,就是要指出许多人没有意识到的结构。这就是制度上的砖墙:许多人没有意识到的结构。这不仅仅是因为许多人没有受到这种结构的伤害。这也是因为他们正在通过复制那些没有被有形化的东西而取得进步。当我们谈论性别歧视和种族主义时,我们谈论的是支持和促进某些人进步的制度。”
要清楚,这不是一个纯粹的学术驱动器 - 这不是与现实世界几乎没有联系的纯粹的学术措施。切斯与现实世界几乎没有联系。外国在美国,尤其是在美国,尤其是在华盛顿特区的美国,尤其是在美国,尤其是在整个美国,对华盛顿特区提出的主张以及针对他们提出的主张,例如性别歧视和性行为,例如性别歧视和性别歧视和性行为。取决于骚扰,可能非常严重。取决于使馆或领事馆的位置,大使馆或领事馆所在的位置,主权免疫可能会禁止这些主张。主权豁免可能会禁止这些主张。
性别歧视是指因某人的性别(包括性取向、性别认同或怀孕)而对其进行不利对待(求职者或雇员)。因性别认同(包括变性人身份)或性取向而对某人进行歧视,即违反《第七章》的性别歧视。法律禁止在就业的任何方面进行歧视,包括招聘、解雇、薪酬、工作分配、晋升、裁员、培训、福利以及任何其他就业条款或条件。
描述:本课程旨在巩固您在“审判技巧”中开始学习的技能。本课程将使用性别歧视案件中的模拟案件档案,帮助您培养成为有效法庭辩护人所必需的技能、策略和战术。本课程还将培养您对性别歧视和就业实体法的了解,并将探讨在审理性别歧视案件时可能特别重要的特定审判问题。本课程将要求您与同学合作并参加课堂练习。您需要做好准备,并每周参加这些练习,无论是作为审判律师还是证人。在课程结束时,您和同学将在现任法官和现场陪审员面前参加最终审判,以代替期末考试。请注意,所有专家证人都将在课堂练习和审判期间提供,但您需要在审判时提供其他证人。这将使您有更多时间准备这些证人,从而获得更好的证人和更好的审判结果。
本研究旨在了解文本转图像生成式人工智能平台如何延续种族主义和性别歧视等偏见,并解码这种偏见如何在大型语言模型和数据集中编程。在本研究中,生成式人工智能的结果通过情感和情感理论的视角进行分析,因为它们被用于研究生成式人工智能算法背后的机器学习和计算机理论。这项研究的目的是解释生成式人工智能为什么有偏见,以及这种偏见是由于当前趋势还是由于它从中提取信息的数据库中的缺陷和偏见而产生的。通过了解生成式人工智能的编码方式,我们试图了解生成式人工智能是否以及如何能够预测趋势,甚至超过人类的预测。这些对话都与生成式人工智能的伦理影响有关,以及随着文本转图像人工智能平台的扩展,我们是否应该实施问责机制,以确保这些平台以合乎道德和负责任的方式运行。本研究还通过分析当今世界社会和政治气候的趋势,探讨了人工智能的使用是否也会进一步加剧种族和性别歧视,要么是因为它的使用进一步鼓励了种族和性别歧视,要么是人工智能正在助长这种歧视。然而,这项研究的目的是了解生成式人工智能中偏见的起源和机制,特别是关于性别歧视和种族主义的比喻,并提出最佳实践建议,以帮助鼓励和实施指导方针,以更合乎道德和更认真地使用和应用生成式人工智能平台。