抽象以广泛使用技术和数据驱动算法为特征的智能社会的兴起有望改善我们的生活。但是,这项技术对在线文化的丰富性和多样性构成了潜在的威胁。本文探讨了Echo Chamber和算法偏见的现象,研究了它们如何促进在线体验的均质化。社交媒体算法个性化内容提要,向用户提供了增强其现有信念的信息。这创建了Echo Chambers,从不同的角度隔离了用户。算法偏差,源于用于训练这些算法的数据,可能会进一步加剧此问题。这项研究的主要数据来自以前的研究(辅助数据),该研究的重点是与在线文化相关的研究。论文调查了Echo Chambers和算法偏见对智能社会中在线文化的影响。它探讨了这些因素如何限制接触各种思想和观点,这可能导致在线体验。通过研究Echo Chambers,算法偏见和在线文化在智能社会中的同质化之间的相互作用,该论文旨在为对技术对我们在线体验的影响有更细微的了解。
摘要 - 将人工智能(AI)的快速整合到诸如医疗保健,金融和刑事司法等关键领域已引起了重大的道德问题,尤其是围绕机器学习模型中的偏见和公平性。尽管它们有可能改善决策过程,但这些模型仍可以使现有的社会偏见永存甚至加剧。本研究旨在调查AI系统中缓解偏置的方法,重点是平衡公平和性能。对2018年至2023年之间发表的150篇研究文章进行了系统评价,并在25个基准数据集上进行了实验,以评估各种机器学习算法和缓解偏差的技术。结果表明,在模型培训期间,偏差降低了23%,九个公平度指标的平均提高了17%,尽管总体准确性最高为9%。该研究强调了公平与绩效之间的权衡,这表明创建既公平又有效的AI系统仍然是一个持续的挑战。这些发现强调了对解决偏差的自适应框架的需求,而不会显着损害模型性能。未来的研究应探讨特定于领域的适应和可扩展的解决方案,以在整个AI开发过程中整合公平性,以确保更公平的结果。
在广泛的数据集上预先训练的视觉语言模型(VLMS)可以通过将性别信息与特定对象或场景相关联,无意中地学习偏见。当前方法,该方法着重于修改输入并监视模型的输出概率分数的变化,通常从模型组件的角度来全面地偏见。我们提出了一个框架,该框架结合了因果中介分析,以确保并绘制VLM中偏见产生和传播的途径。我们的框架适用于广泛的视觉语言和多模式任务。在这项工作中,我们将其应用于对象检测任务并将其应用于GLIP模型。这种方法使我们能够确定干预措施对模型偏差的直接影响以及干预措施对通过不同模型组件介导的偏差的间接影响。我们的结果表明,图像效果是偏见的主要因素,其影响明显高于文本特征,特别是占MSCOCO和PASCAL-SONTIC数据集中偏见的32.57%和12.63%。值得注意的是,图像编码器的贡献超过了文本编码器和深层融合编码器的贡献。进一步的实验证实,语言和视力方式的贡献是对齐和不集中的。因此,在图像编码器中着重于模糊的性别表示,这对模型偏见做出了最大的贡献,在MSCOCO和PASCAL-SENTENCE数据集中,有效地降低了偏见22.03%和9.04%,并且具有最小的性能损失或增加的计算需求。1
大型语言模型 (LLM) 已显示出作为评估 AI 系统生成的答案质量的自动评估器的前景。然而,基于 LLM 的评估器在用于评估成对比较中的候选答案时表现出位置偏差或不一致性,无论内容如何,都会偏向第一个或第二个答案。为了解决这个限制,我们提出了 P ORTIA,这是一个基于对齐的系统,旨在模仿人类的比较策略,以轻量级但有效的方式校准位置偏差。具体来说,P ORTIA 将答案分成多个部分,同时考虑长度和语义,然后将它们合并回单个提示以供 LLM 评估。对 6 个 LLM 对 11,520 个答案对进行的大量实验表明,P ORTIA 显着提高了所有模型和比较形式的一致性率,平均相对提高 47.46%。它还使 P ORTIA 增强型 GPT-3.5 能够实现与 GPT-4 相当的与人类的一致率,并将 GPT-4 的一致率提高到 98%。后续的人工评估表明,P ORTIA 增强型 GPT-3.5 模型在与人类评估者的一致性方面甚至可以超越独立的 GPT-4,凸显了 P ORTIA 纠正立场偏见、提高 LLM 一致性和提高性能的同时保持成本效率的能力。
社会情报对于了解复杂的人类表达和社会影响至关重要。虽然大型的多模型模型(LMM)在社会智能问题答案中表现出了显着的表现(SIQA),但由于在预训练阶段中基于文本的数据的独立流行,它们仍然倾向于产生依靠语言先验的回答,并依靠相关上下文。要解释LMM的上述语言偏见,我们采用了一个结构的因果模型,并认为反事实推理可以通过避免LMMS内部常识知识与给定的结论之间的虚假相关性来减轻偏见。但是,构建多模式反事实样本是昂贵且具有挑战性的。为了应对上述挑战,我们提出了一个输出d Istribution c校准网络,该网络具有v irtual c-osunterfactual(dcvc)数据。DCVC设计了一个新颖的外部分配校准网络,以减轻负面语言偏见的影响,同时保留有益的先验。扰动被引入LMMS的输出分布,以模拟从上下文中的分布的分布转移,该分布被用来构建相反的aug augs数据。在多个数据集上进行的实验证明了我们提出的方法的有效性和可实现性。
电荷掺杂代表调节材料特性的最成功的方法之一。常规化学掺杂不可避免地涉及淬灭疾病的侧面影响,有时会受到掺杂元素的选择限制。相反,静电掺杂使以干净的方式将载体注入材料;但是,在具有高背景载体浓度的材料中,由于筛选长度极短,静电掺杂的工作距离受到限制。在这项工作中,基于频段对齐的考虑,我们通过将srrruo 3的单单核电储存层插入srRuo 3 / ndnio 3的人工晶格,以各种周期性的定期级别的ndnio 3 matrix插入ndnio 3 matrix。通过X射线吸收光谱揭示了从SRRUO 3到NDNIO 3的电子转移,并随附轨道重建。这种电子掺杂大大调节了ndnio 3的金属 - 磁性和抗铁磁过渡。此外,在超级晶格中观察到散装的E'抗反磁性顺序,NDNIO 3层降低到单个单位细胞,该单元与界面离子交换相关,这与超级限制的强电子传递增强了。我们的工作提高了使用有效的调节掺杂定制人工氧化物材料的前景,这可能导致自然晶体无法实现的新兴功能。
由于行业中LMS广泛部署和面向客户的应用程序,缓解语言模型(LMS)中缓解偏见已成为一个关键问题。许多方法围绕着数据预处理和随后对语言模型的微调,可能既耗时又需要计算要求的任务。作为替代方案,正在研究机器学习技术,但是缺乏比较研究来评估这些方法的有效性。在这项工作中,我们探讨了两种机器未学习方法的效率:分区的对比梯度 - 未学习(PCGU)(Yu等人。,2023)应用于解码器模型,并通过任务向量进行否定(Ilharco等人,2022),并将它们与直接偏好优化(DPO)进行比较(Rafailov等,2024)减少开源LMS(例如Llama-2和Opt 1)中的社会偏见。我们还为大型模型2实施分布式PCGU。通过量化和定性分析,通过任务向量方法的否定表现优于PCGU,并且在模型性能最小恶化和困惑性中,通过量化和定性分析表明,通过任务向量方法的否定。通过任务矢量的否定,千层面-2的偏差得分为25.5%,并使OPT模型的偏置减少多达40%。此外,与DPO不同,它可以轻松调整以平衡降低偏差和发电质量之间的权衡。
摘要:我们的文章,文化遗产和偏见研究了使用机器学习来解释和对人类记忆和文化遗产进行分类的挑战和潜在解决方案。我们认为,偏见是文化遗产收藏(CHC)及其数字版本中固有的,并且AI管道可能会扩大这种偏见。我们假设有效的AI方法需要具有结构化元数据的庞大,通知的数据集,而CHC通常由于多种数字化实践和有限的互连性而缺乏CHC。本文讨论了CHC和其他数据集中偏见的定义,并探讨了它是如何源于培训数据和人文专业知识中生成平台中的不足。我们得出的结论是,关于AI和CHC的奖学金,准则和政策应以AI技术的固有和增强为偏见。我们建议在整个过程中实施偏见缓解技术,从收集到策展,以支持有意义的策划,拥抱多样性并迎合未来的遗产受众。
个人将自己的个人经历和偏见带入与AI系统的互动。9的研究表明,对自动驾驶汽车和自动驾驶汽车技术的更熟悉和直接经验使个人更有可能支持自动驾驶汽车开发并认为安全使用安全。相反,行为科学研究表明,缺乏技术知识会导致恐惧和拒绝,而对特定技术的熟悉程度只会导致其能力过度自信。10越来越多的“无人驾驶”汽车的情况说明了用户的个人特征和体验如何塑造其相互作用和自动化偏见。此外,正如在照明下对特斯拉的案例研究一样,即使是旨在减轻自动化偏见风险的系统改进,面对一个人的偏见,有效性可能有限。