摘要在这项工作中,我们使用尖端的机器学习方法来解决模因中的性别歧视问题。该研究首先要导入和可视化模因数据集,然后使用包括种植,缩放和标准化的技术进行图像进行预处理,以便为它们做好准备进行模型培训。一种称为剪辑的预训练模型用于提取功能,并且数据集分为西班牙语和英语的模因的培训和验证集。收集的功能用于训练和评估各种机器学习模型,例如逻辑回归,SVM,XGBoost,决策树,随机森林,神经网络,Adaboost和SGD。精确得分,分类报告和混乱矩阵用于评估性能。随机森林模型在所有这些模型中都表现出了最好的作用。之后,创建了包含模型预测性别歧视发生在测试数据集中的JSON文件。结果强调了训练有素的模型和复杂的机器学习方法如何在社交媒体上识别危险内容,为未来的研究提供有见地的信息以及有助于创建更安全的在线空间的有用应用。
摘要:女性对科学技术领域贡献巨大,而女性在历史上被排除在科学领域之外,导致世界更加贫穷。尽管许多行业都存在性别差异,并继续受到性别歧视的影响(例如银行业、农业、采矿业、卡车运输业、工程业等),但在我们面向未来的人类愿景中,没有哪个行业像科学,尤其是空间科学那样占据如此重要的地位。对于在男性主导的全球航天行业工作的女性来说,太空是女性的前沿领域,有着天顶。联合国 (UN) 报告称,2016 年,航天行业只有 20% 的工人是女性,而且这一数字在三十年来没有改善。如果没有制度变革和性别文化态度的重大转变,女性就无法对抗其严峻的处境。科学与人权息息相关;参与科学可以提高女性的教育和独立性、生活机会、社会地位和基本人权。在地球上,父权制意识形态贯穿着我们的日常生活,但太空为人类开启新篇章提供了机会。关键词:空间研究、性别偏见、航天工业、性别歧视、宇航员版权所有:Bronwyn D. Lovell 引言女性对科学技术领域贡献巨大,而女性历史上被排除在科学事业之外,导致世界变得更加贫乏。多样性是学科发展的关键,而科学需要女性。尽管许多行业都存在性别差异,并且继续受到性别歧视的影响(例如银行业、农业、采矿业、卡车运输业、工程业等),但在我们面向未来的人类愿景中,没有哪个行业像科学,尤其是空间科学那样占据如此重要的地位。对于在男性主导的全球航天工业中工作的女性来说,太空是一条女性的边疆,有着天穹的天花板。联合国(UN)报告称,2016 年,航天工业中只有 20% 的工人是女性,而且这一数字在 30 年来一直没有改善(UNOOSA nd)。 20% 并不是一个令人鼓舞的数字,然而,当考虑到女性在该领域往往扮演的低级角色时,女性在航天工业中的处境就更加糟糕了。例如,截至 2019 年 1 月,NASA 劳动力信息立方体显示,其男性员工数量几乎是女性员工数量的两倍(11,343 人对 5,884 人)。然而,仔细观察,从事工程职位的男性人数是女性的三倍多(8,208 人对 2,419 人)。担任高级科学职位的男性人数是女性的五倍多(76 人对 13 人),担任高级管理职位的男性人数是女性的两倍多(279 人对 119 人)。相反,担任一般行政职务的女性多于男性(1,333 人对 706 人)。从这些数据来看,我们可以看到,尽管女性在全球航天领域占比 20%,但她们获得特权的可能性远低于男性。因此,即使女性参与航天工业,她们作为一个群体,也不能说是充分或平等地参与。
摘要AI中的公平性话题,如命运(AI)社区中的命运(公平,问责制,透明度和道德规范)所引起的,在过去几年中引发了有意义的讨论。但是,从法律的角度来看,特别是从欧盟法律的角度来看,仍然存在许多公开问题。算法公平旨在减轻设计级别的结构不平等,而欧洲非歧视法是针对部署AI模型后的个体歧视案例量身定制的。AI ACT可能会通过将非歧视责任转移到AI模型的设计阶段来弥补这两种方法迈出巨大的一步。基于对AI法案的综合阅读,我们对法律以及技术执行问题发表评论,并提出对偏见检测和偏见校正的实际含义,以指定并符合特定的技术要求。
句子并非所有的人都平衡。另一方面,某些人群目前的数据比其他人的数据少。这可以是历史的,例如因为过去的医疗尝试主要是用白人进行的。相反,某些小组有许多有关比例的数据,例如,如果在预先的领域显示了已经观察到许多犯罪的警察工作(预测政策),则由于数据分析更加受控,因此发现了更多的刑事案件。还可以收集数据的方式和何处可以决定培训数据的余额:例如,如果数据为在互联网上提出,通常代表女性。如果对Ki系统进行了有关不代表该系统应用的人的人的数据培训的数据,也可能会出现偏见。例如在美国居住的人可能不适合适用于瑞士人的Trai肾脏的AI系统。
图2。MLH1-PMS1的固有ATPase活性失去了PCNA刺激。(a)TLC ATPase分析测量了线性4.3 kb DNA上由MLH1-PMS1水解的ATP量。灰色条代表完整的线性4.3 kb DNA(n = 3),蓝色条代表了线性的4.3 kb DNA,具有4个单链断裂(n = 3)。底物。灰色和蓝色条带有对角线,代表了包含PCNA的实验(n = 3)。(b)灰色条代表在4.3 kb放松,无迹线的圆形DNA上水解的ATP百分比(n = 3),蓝色条代表圆形的4.3 kb DNA,其中包含4个迹线(n = 3)。4.3 kb PBR322。使用nt.bstnbi进行单链断裂。(c)MLH1-PMS1在完整DNA上与包含单链断裂的DNA的ATPase活性模型。
图1。左:十个不同模型如何表现出相同的准确性的例证,同时在假设的十个人中给出不同的个人预测。右:两个多胶模型的示例:它们表现出相等的精度(所有人比80%),但进行不同的个人预测,从而导致歧视性行为的差异。左侧的图形在男女之间的选择率差异很大,而右图则没有。该图的较暗区域是指模型预测个人值得信誉的地方,而黑暗点对应于那些确实是信誉良好的人。该图的较轻区域是指模型预测个人不可信守的区域,而较轻的点对应于那些确实是不可信任的个体。三角形点是指女性,正方形指的是男人。
Open Access本文均根据创意共享属性4.0国际许可证,该许可允许使用,共享,适应,分发和复制以任何媒介或格式,只要您适当地归功于原始作者(S)和来源,并提供了与Creative Commons许可证的链接,并指出是否进行了更改。本文中的图像或其他第三方材料包含在文章的创意共享许可中,除非在信用额度中另有说明。如果本文的创意共享许可中未包含材料,并且您的预期用途不受法定法规的允许或超过允许的用途,则您需要直接从版权所有者那里获得许可。要查看此许可证的副本,请访问http://creativecommons.org/licenses/4.0/。
算法决策导致了新的和复杂的歧视类型的出现,这些歧视经常隐藏在算法中,尽管它可以减少人类判断的主观性(Lepri等,2018)。算法偏见的无处不在以及它提出的社会,道德和法律问题在学者和政府机构中变得越来越广泛地认可(Selbst和Barocas,2016年)。算法歧视可以以各种形式表现出来,例如算法剂的偏见,偏见的特征选择,预防控制,结果责任调节和大数据歧视(Kim,2016)。这些不同类型的算法偏见会导致不公平的待遇和对受保护群体的不同影响,从而引起人们对平等权利,正当程序和社会正义的关注(Kroll等,2017)。