虽然很容易记录这种偏见,但由于所谓的算法“黑匣子”,但通常可以将歧视性的算法结果截然不同,并且通常可以与对训练模型的数据有关的问题链接到训练的数据 - 更好的数据可能会产生更好的结果。此外,不完整或错误的数据集不仅影响技术。被收集和用于量化和产生有关残疾人的见解的数据还可以为残疾人的倡导工作提供依据,包括证明和支持包括残疾人义政策的制定,为公共利益分配资金,并维护与残疾人相关的政权法律。为了解决技术知识的残疾歧视,并改善整体残疾人的生活 - 首先需要理解,然后减轻与残疾相关数据所特有的问题。
在机器翻译的域内,性别偏差被定义为MT系统产生翻译的趋势,这些翻译反映或永久化了基于文化和社会偏见的刻板印象,不平等或假设(Friedman和Nis-Senbaum,1996; Savoldi等,20221)。Given that the presence of such bias can lead to harmful con- sequences for certain groups — either in repre- sentational (i.e., misrepresentation or underrepre- sentation of social groups and their identities) or allocational harms (i.e., allocation or withholding of opportunities or resources to certain groups) — (Levesque, 2011; Crawford, 2017; Lal Zimman and Meyerhoff, 2017; Régner et Al。,2019年),这对于彻底调查和减轻其发生至关重要。尽管如此,解决性别偏见是一项多方面的任务。性别偏见是所有生成NLP模型中普遍存在的问题,而LLM也不例外
这一发现引发了重要的伦理考量。尽管人工智能擅长模式识别,但它继承并反映了其训练数据中存在的偏见。为了对抗人工智能偏见,解决现实世界的差异势在必行。促进医学领域包容性和多样性的举措值得称赞,有助于重塑医学教育。这项研究强调了需要不断努力消除障碍,促进历史上以男性为主的医学领域的包容性,特别是对于代表性不足的人群。最终,我们的研究结果强调了现实世界数据质量在减轻人工智能偏见方面的关键作用。随着人工智能继续影响医疗保健和教育,追求公平、公正的人工智能应用应该继续走在这些变革性努力的最前沿。
摘要RRT* - 连接算法通过双重树偏见的生长增强了效率,但是这种偏见可以固有地盲目,可能会影响算法的启发式性能。相比之下,知情的RRT*算法通过利用知情区域来缩小计划问题的范围,从而提高了收敛效率对最佳解决方案。但是,这种方法依赖于可行的道路的先前建立。结合这两种算法可以解决知情RRT所带来的挑战,同时还可以加速融合到最佳性,尽管没有解决双树中的盲偏问题。在本文中,我们提出了一种新颖的算法:动态知识的bias bilt rrt*-connect。该算法以潜在和明确的知情偏置抽样为基础,引入了动态偏置点集,该集合以精确的目标指导双树生长。此外,我们通过引入两个有效捕获算法特征的创新指标来增强算法启发式方法的评估框架。在传统指标中观察到的改进表明,与RRT* - 连接和知情RRT* - 连接相比,所提出的算法具有更大的启发式启发式。这些发现还表明我们评估框架中引入的新指标的生存能力。
摘要算法偏见是教育环境中机器学习模型中的主要问题。但是,它尚未在亚洲学习环境中进行彻底研究,并且只有有限的工作才考虑了基于区域(亚国家)背景的算法偏见。作为解决这一差距的一步,本文研究了菲律宾一所大型大学的5,986名学生的人口,并根据学生的区域背景调查了算法偏见。大学在广泛领域的在线课程中使用了画布学习管理系统(LMS)。在三个学期的典范上,我们收集了4870万个学生在画布中活动的日志记录。我们使用这些日志来训练从LMS活动中预测学生成绩的二进制分类模型。表现最佳的模型达到0.75,加权F1得分为0.79。随后,我们根据学生区域检查了偏见的数据。使用三个指标进行评估:AUC,加权F1得分和MADD在所有人口组中均显示出一致的结果。因此,在年级预测中对特定学生群体没有观察到不公平。
摘要。尽管大型视力语言模式(LVLM)在各种任务上取得了显着的成功,但由于训练数据而继承的对知识偏见的敏感性阻碍了它们概括为新场景并限制其现实世界中适用性的能力。为了解决这一挑战,我们提出了反事实偏见推理(COBRA)数据集,该数据集通过提供新颖的VQA示例来解决知识偏见,以评估和减轻LVLMS中的偏见。这些例子通过提供编辑的知识图和图像内容来鼓励反事实思考,并详细介绍了理性过程的注释,以促进对示例的全面理解。基于数据集,我们介绍了一系列反事实思想(COCT)方法,该方法学习了偏见的推理过程,并提供了在上下文中的示例,以证明现有推理如何推广到反事实场景。这使LVLMS能够逐步阐明原因,而不是依靠有偏见的知识,导致更具概括性的解决方案。我们广泛的评估表明,CoCT在需要知识偏见下需要推理的任务上的现有方法优于现有方法。我们的工作可从https://github.com/superjohnzhang/cobra获得。
人工智能 (AI) 现在几乎存在于我们日常生活的方方面面。此外,虽然这种人工智能增强通常是有益的,或者在最坏的情况下也不会带来问题,但有些情况值得关注。在这项研究中,我们认为劳动力市场训练数据集导致的人工智能偏见会显著放大微小的不平等,这些不平等在以后的生活中表现为永久失去机会、社会地位和财富隔离。马太效应是造成这种现象的原因,只不过重点不是富人越来越富,而是穷人越来越穷。我们展示了对技能、能力和知识的期望频繁变化如何导致人工智能无法做出公正的招聘决定。具体来说,人工智能使用的训练数据集中的偏见会影响结果,导致弱势群体被忽视,而特权阶层经常被选中。这种简单的人工智能偏见通过强化马太效应加剧了社会不平等,而且它的速度比以前快得多。我们通过研究来自司法、安全、医疗保健、人力资源管理和教育等各个劳动领域的数据来评估这些威胁。
3 OCC、美联储、FDIC 和 NCUA 联合发布的指导意见:《跨部门评估和评估指南》,75 FR 77450, 77468(2010 年 12 月 10 日)。FHFA 的指导意见:《咨询公告 2013-07 补充指南 – 模型风险管理指南 2013-07》,FHFA 咨询公告 2022-03(2022 年 12 月 21 日);《模型风险管理指南》,FHFA 咨询公告 2013-07(2013 年 11 月 20 日);《第三方提供商关系监督》,FHFA 咨询公告 2018-08(2018 年 9 月 28 日)。 OCC 的指导:《模型风险管理监管指导》,OCC 公告 2011-12(2011 年 4 月 4 日);《审计长手册》,《模型风险管理》(2021 年 8 月);以及《第三方关系:跨部门风险管理指导》,OCC 公告 2023-17(2023 年 6 月 6 日)。美联储的指导:《模型风险管理指导》,联邦储备委员会 SR 信函 11-7(2011 年 4 月 4 日);《跨部门第三方关系指导:风险管理》,联邦储备委员会 SR 信函 23-4(2023 年 6 月 7 日);《外包风险管理指导》,联邦储备委员会 SR 信函 13-19(2013 年 12 月 5 日);以及《第三方风险管理:社区银行指南》,联邦储备委员会(2024 年 5 月)。NCUA 的指导:评估第三方关系,NCUA 监管函 07-01(2007 年 10 月);以及对第三方服务提供商的尽职调查,NCUA 函 01-CU-20(2001 年 11 月)。FDIC 的指导:采用模型风险管理监管指南,FDIC FIL-22-2017(2017 年 6 月 7 日);第三方关系跨机构指南:风险管理,FDIC(2023 年 6 月 6 日);以及第三方风险管理,社区银行指南,FDIC FIL-19-2024(2024 年 5 月 3 日)。CFPB 的指导:CFPB,合规公告和政策指南; 2016-02,《服务提供商》(2016 年 10 月 31 日);CFPB,《检查程序 - 合规管理审查》(2017 年 8 月)。
技术对我们来说已经越来越重要,要么我们将其用于支持或增强我们的活动,要么直接将任务委派给这些盛开的工具,这些工具从更加机械世界到一个数字世界中找到了他们从更加机械世界到一个数字世界的道路,我们在某种程度上比其他人更重要的是,我们的技术变得更加重要,而这是一个重要的技术,而这是一个重要的事情,而这是一个重要的事情。这些工具不是完美无缺的,不应盲目信任,对于过去两年中蓬勃发展的AI系统,这也没有什么不同,我们将其委派给我们的某些工作或任务以节省时间或金钱,从这些系统中节省时间或金钱,这些系统是从最近两年中出现的最大的AI工具之一,是图像基因性AI,其中最大的例子是Dall-e的最大示例。