摘要 - 将人工智能(AI)的快速整合到诸如医疗保健,金融和刑事司法等关键领域已引起了重大的道德问题,尤其是围绕机器学习模型中的偏见和公平性。尽管它们有可能改善决策过程,但这些模型仍可以使现有的社会偏见永存甚至加剧。本研究旨在调查AI系统中缓解偏置的方法,重点是平衡公平和性能。对2018年至2023年之间发表的150篇研究文章进行了系统评价,并在25个基准数据集上进行了实验,以评估各种机器学习算法和缓解偏差的技术。结果表明,在模型培训期间,偏差降低了23%,九个公平度指标的平均提高了17%,尽管总体准确性最高为9%。该研究强调了公平与绩效之间的权衡,这表明创建既公平又有效的AI系统仍然是一个持续的挑战。这些发现强调了对解决偏差的自适应框架的需求,而不会显着损害模型性能。未来的研究应探讨特定于领域的适应和可扩展的解决方案,以在整个AI开发过程中整合公平性,以确保更公平的结果。
在广泛的数据集上预先训练的视觉语言模型(VLMS)可以通过将性别信息与特定对象或场景相关联,无意中地学习偏见。当前方法,该方法着重于修改输入并监视模型的输出概率分数的变化,通常从模型组件的角度来全面地偏见。我们提出了一个框架,该框架结合了因果中介分析,以确保并绘制VLM中偏见产生和传播的途径。我们的框架适用于广泛的视觉语言和多模式任务。在这项工作中,我们将其应用于对象检测任务并将其应用于GLIP模型。这种方法使我们能够确定干预措施对模型偏差的直接影响以及干预措施对通过不同模型组件介导的偏差的间接影响。我们的结果表明,图像效果是偏见的主要因素,其影响明显高于文本特征,特别是占MSCOCO和PASCAL-SONTIC数据集中偏见的32.57%和12.63%。值得注意的是,图像编码器的贡献超过了文本编码器和深层融合编码器的贡献。进一步的实验证实,语言和视力方式的贡献是对齐和不集中的。因此,在图像编码器中着重于模糊的性别表示,这对模型偏见做出了最大的贡献,在MSCOCO和PASCAL-SENTENCE数据集中,有效地降低了偏见22.03%和9.04%,并且具有最小的性能损失或增加的计算需求。1
大型语言模型 (LLM) 已显示出作为评估 AI 系统生成的答案质量的自动评估器的前景。然而,基于 LLM 的评估器在用于评估成对比较中的候选答案时表现出位置偏差或不一致性,无论内容如何,都会偏向第一个或第二个答案。为了解决这个限制,我们提出了 P ORTIA,这是一个基于对齐的系统,旨在模仿人类的比较策略,以轻量级但有效的方式校准位置偏差。具体来说,P ORTIA 将答案分成多个部分,同时考虑长度和语义,然后将它们合并回单个提示以供 LLM 评估。对 6 个 LLM 对 11,520 个答案对进行的大量实验表明,P ORTIA 显着提高了所有模型和比较形式的一致性率,平均相对提高 47.46%。它还使 P ORTIA 增强型 GPT-3.5 能够实现与 GPT-4 相当的与人类的一致率,并将 GPT-4 的一致率提高到 98%。后续的人工评估表明,P ORTIA 增强型 GPT-3.5 模型在与人类评估者的一致性方面甚至可以超越独立的 GPT-4,凸显了 P ORTIA 纠正立场偏见、提高 LLM 一致性和提高性能的同时保持成本效率的能力。
社会情报对于了解复杂的人类表达和社会影响至关重要。虽然大型的多模型模型(LMM)在社会智能问题答案中表现出了显着的表现(SIQA),但由于在预训练阶段中基于文本的数据的独立流行,它们仍然倾向于产生依靠语言先验的回答,并依靠相关上下文。要解释LMM的上述语言偏见,我们采用了一个结构的因果模型,并认为反事实推理可以通过避免LMMS内部常识知识与给定的结论之间的虚假相关性来减轻偏见。但是,构建多模式反事实样本是昂贵且具有挑战性的。为了应对上述挑战,我们提出了一个输出d Istribution c校准网络,该网络具有v irtual c-osunterfactual(dcvc)数据。DCVC设计了一个新颖的外部分配校准网络,以减轻负面语言偏见的影响,同时保留有益的先验。扰动被引入LMMS的输出分布,以模拟从上下文中的分布的分布转移,该分布被用来构建相反的aug augs数据。在多个数据集上进行的实验证明了我们提出的方法的有效性和可实现性。
由于行业中LMS广泛部署和面向客户的应用程序,缓解语言模型(LMS)中缓解偏见已成为一个关键问题。许多方法围绕着数据预处理和随后对语言模型的微调,可能既耗时又需要计算要求的任务。作为替代方案,正在研究机器学习技术,但是缺乏比较研究来评估这些方法的有效性。在这项工作中,我们探讨了两种机器未学习方法的效率:分区的对比梯度 - 未学习(PCGU)(Yu等人。,2023)应用于解码器模型,并通过任务向量进行否定(Ilharco等人,2022),并将它们与直接偏好优化(DPO)进行比较(Rafailov等,2024)减少开源LMS(例如Llama-2和Opt 1)中的社会偏见。我们还为大型模型2实施分布式PCGU。通过量化和定性分析,通过任务向量方法的否定表现优于PCGU,并且在模型性能最小恶化和困惑性中,通过量化和定性分析表明,通过任务向量方法的否定。通过任务矢量的否定,千层面-2的偏差得分为25.5%,并使OPT模型的偏置减少多达40%。此外,与DPO不同,它可以轻松调整以平衡降低偏差和发电质量之间的权衡。
摘要:我们的文章,文化遗产和偏见研究了使用机器学习来解释和对人类记忆和文化遗产进行分类的挑战和潜在解决方案。我们认为,偏见是文化遗产收藏(CHC)及其数字版本中固有的,并且AI管道可能会扩大这种偏见。我们假设有效的AI方法需要具有结构化元数据的庞大,通知的数据集,而CHC通常由于多种数字化实践和有限的互连性而缺乏CHC。本文讨论了CHC和其他数据集中偏见的定义,并探讨了它是如何源于培训数据和人文专业知识中生成平台中的不足。我们得出的结论是,关于AI和CHC的奖学金,准则和政策应以AI技术的固有和增强为偏见。我们建议在整个过程中实施偏见缓解技术,从收集到策展,以支持有意义的策划,拥抱多样性并迎合未来的遗产受众。
个人将自己的个人经历和偏见带入与AI系统的互动。9的研究表明,对自动驾驶汽车和自动驾驶汽车技术的更熟悉和直接经验使个人更有可能支持自动驾驶汽车开发并认为安全使用安全。相反,行为科学研究表明,缺乏技术知识会导致恐惧和拒绝,而对特定技术的熟悉程度只会导致其能力过度自信。10越来越多的“无人驾驶”汽车的情况说明了用户的个人特征和体验如何塑造其相互作用和自动化偏见。此外,正如在照明下对特斯拉的案例研究一样,即使是旨在减轻自动化偏见风险的系统改进,面对一个人的偏见,有效性可能有限。
关于 COVID-19 疫苗有效性 (VE) 的观察性研究提供了关键的真实世界数据,为全球公共卫生政策提供了信息。这些研究主要使用预先存在的数据源,对于评估不同人群的 VE 和制定可持续的疫苗接种策略至关重要。队列设计经常用于 VE 研究。在 COVID-19 大流行期间,疫苗接种运动的快速实施引入了受社会人口差异、公共政策、感知风险、健康促进行为和健康状况影响的差异性疫苗接种,可能导致健康用户偏见、健康疫苗接种效果、虚弱偏见、易感性差异耗竭偏见和适应症混杂等偏见。医疗保健系统的巨大负担加剧了数据不准确的风险,导致结果分类错误。此外,大流行期间使用的大量诊断测试也导致了错误分类偏差。急于发表可能进一步影响了这些偏见或导致对其的疏忽,从而影响了研究结果的有效性。研究中的这些偏见因环境、数据来源和分析方法的不同而有很大差异,并且由于数据基础设施不足,在中低收入国家 (LMIC) 环境中可能更为明显。解决和减轻这些偏见对于准确估计 VE、指导公共卫生战略和维持公众对疫苗接种计划的信任至关重要。透明地沟通这些偏见并严格改进未来观察性研究的设计至关重要。
几项研究提高了对图像生成模型中社会偏见的认识,证明了它们对刻板印象和失衡的倾向。本文通过引入评估方案来分析生成过程对稳定扩散图像的影响,从而为这一不断增长的研究促进了这一研究。利用先前工作的见解,我们探讨了一般指标如何不仅影响性别表现,而且还影响生成的界面内的对象和布局的表示。我们的发现包括在对象的描述中存在差异,例如针对特定性别的工具以及整体布局的变化。我们还揭示了Neu-Tral提示往往会产生与女性提示更一致的图像,而不是其女性提示。我们进一步探讨了偏见通过代表性差异及其通过及时图像依赖性在图像中表现出来的位置,并为开发人员和用户提供建议,以减轻图像生成中的潜在偏见。
正规教育和基督教进入了米佐拉姆邦,社会生活发生了巨大变化。废除了Zawlbuk,酋长制和各种做法等现有实体。政治意识带来了政治变革,这导致了政党的成立。第一个政党Mizo Conmoners Union,后来更名为Mizo Union,于1946年成立,赢得了Mizoram于1972年的第一次大选。有影响力的公民社会,例如YMA(年轻的Mizo协会),MHIP(Mizo Hmeichhe Insuihkhawm Pawl)等。iii这些公民社会在维护社会的传统和实践方面发挥了警务作用。他们的行动努力确保社区的利益,他们的观点倾向于与保守的原则保持一致。这些机构可以对米佐拉姆人民的政治行为产生深远的影响。