患者多酸性生存结果的分类对于个性化的癌症治疗很重要。机器学习(ML)算法越来越多地用于为医疗保健的决策提供信息,但是这些模型容易受到数据收集和创建算法的偏见。ML模型以前已显示出表现出种族偏见,但他们对不同年龄和性别群体的患者的公平性尚未研究。因此,当对结直肠癌患者(n = 515)分类时,使用TCGA数据进行分类时,我们比较了5个ML模型(随机森林,多项式逻辑回归,线性支持矢量分类器,线性判别分析和多层感知)的多项性表现。所有五个模型均对这些社会人口统计学群体表现出偏见。然后,我们在肺腺癌(n = 589)上重复了相同的过程,以验证我们的发现。令人惊讶的是,对于最大的社会人口统计学组,大多数模型的总体趋势往往较差。优化模型性能的方法,包括在合并年龄,性别或种族群体上测试模型,以及创建经过培训并用于个人或合并的社会人口统计学群体的模型,显示出减少不同群体模型绩效差异的潜力。值得注意的是,这些方法可用于提高ML公平性,同时避免对表现出偏见的模型进行惩罚,从而牺牲整体性能。
近年来,区块链技术已成为一种工具,具有提高农业供应链中透明度,公平性和可持续性的潜力。这项研究通过解决区块链技术在咖啡链中有助于公平性的潜力的问题,有助于对采用区块链的含义的持续论述。从一个理论框架开始,该框架概念化了Agrifood公平及其与区块链的关系,研究进行了探索,探索了由25个咖啡烘焙师公司商业化的47种咖啡产品中采用的区块链公平性相关信息。目的是评估与烘焙公司和产品相关的特定特征如何影响通过区块链披露的公平相关信息的数量和质量。数据详细说明包括线性多元回归处理信息与咖啡烘焙公司和产品有关的信息,以及评估通过区块链传达的公平信息类型。通过建立这些特征与特定类型的公平性之间的相关性,这项研究表明,某些公司的特征(例如公司的规模和承诺和某些咖啡产品的特征),例如产品讲故事,证书的存在和存在的咖啡包装上的区块链信息 - 咖啡包装上的相关信息与公平信息相关信息,可在Blockchain平台上显示出可用的最终用户。这表明区块链技术可以帮助提高供应链的透明度,并将公平相关信息传达给最终用户。在采用以可持续性为导向措施和适当的公司政策的公司中,其有效性尤其重要。在这些情况下,区块链可以提高面向公平的过程的可见性。
1参见b rishen r ogers,d ata and d a at t w ork:一种涉及技术,l abor l aw和n ew working c lass,在15(2023)(2023年)(2023年)(描述“劳动力市场的新古典模型”,“不再是工作的努力” - 启动努力的工作 - 启动努力 - 启动是生产力的,即生产力 - 努力 - 在竞争市场中不提高生产率的企业的理由将失去市场份额。”)。另请参见David H. Autor和David Dorn,《低技能服务工作的增长与美国劳动力市场的两极分化》,103 a m。e c。r ev。5(2013年8月),第1553页(“假定规范模型中的技术采用因子提升形式,这意味着它可以补充高技能或低技能工人……”)。 2对该理论的批评是达伦·阿克莫格鲁(Daron Acemoglu)和西蒙·约翰逊(Simon Johnson)的最新著作《权力和进步》的核心。 他们称其为“生产力潮流”。参见D Aron A Cemoglu&s Imon J Ohnson,P out and p Rogress:O ur t Housand -y ear s truggle o ver t echnology and p Rosperity,在14-19,322(2023)(2023)。5(2013年8月),第1553页(“假定规范模型中的技术采用因子提升形式,这意味着它可以补充高技能或低技能工人……”)。2对该理论的批评是达伦·阿克莫格鲁(Daron Acemoglu)和西蒙·约翰逊(Simon Johnson)的最新著作《权力和进步》的核心。他们称其为“生产力潮流”。参见D Aron A Cemoglu&s Imon J Ohnson,P out and p Rogress:O ur t Housand -y ear s truggle o ver t echnology and p Rosperity,在14-19,322(2023)(2023)。
本文介绍了算法偏见对非洲背景下人工智能(AI)系统信息公平和信任的影响。作者的个人经验和观察以及相关文献结合了本文的基础。作者说明了为什么算法偏见在非洲构成了重大挑战,尤其是在AI应用的公平和完整性方面。这种观点强调了迫切需要解决损害信息传播和破坏公共信任的公平性的偏见。作者倡导实施促进包容性,增强文化敏感性并积极吸引当地社区参与AI系统发展的战略。通过优先考虑道德实践和透明度,利益相关者可以减轻与偏见相关的风险,从而促进信任并确保公平获得技术。此外,本文探讨了无所作为的潜在后果,包括加剧的社会差异,公共机构的信心减少以及经济停滞。最终,这项工作主张对AI的协作方法,该方法将非洲定位为负责任发展的领导者,从而确保技术是可持续发展和社会正义的催化剂。
摘要国家统计组织(NSO)越来越多地利用机器学习(ML),以提高其产品的及时性和成本效益。在引入ML解决方案时,NSO必须确保在稳健性,可重复性和准确性方面具有高度标准,例如在统计算法的质量框架中(qf4sa; Yung et e yung etel。2022,IAOS统计杂志)。同时,越来越多的研究集中于公平性,作为对ML安全部署的前提,以防止在实践中产生不同的社会影响。然而,在NSO在ML应用的背景下,尚未明确讨论公平作为质量方面。我们采用QF4SA质量框架,并将其质量维度的映射到算法公平性。因此,我们以多种方式扩展了QF4SA框架:首先,我们研究了公平性与每个质量维度的相互作用。第二,我们认为公平是它自己的额外质量维度,超出了到目前为止QF4SA中所包含的质量。第三,我们强调并明确地介绍数据,以及与应用方法论的相互作用。与经验插图并行,我们展示了我们的映射如何在官方统计,算法公平和值得信赖的机器学习领域中促进方法论。几乎没有关于ML,公平性和质量维度的知识,因为我们向这些主题提供了介绍,因此需要进行官方统计数据。这些介绍也针对质量维度和公平性的讨论。
基于人工智能 (AI)/机器学习 (ML) 的模型的模型风险管理 (MRM) 具有一系列独特的特性和挑战,这是因为这些模型本身就具有复杂性和动态性。用于传统模型的标准模型验证框架需要增强,以涵盖基于 AI/ML 的模型中存在的潜在问题,例如偏差、模型漂移、模型可解释性、道德考虑、公平性-准确性权衡以及不同的利益相关者参与。在本文中,我们将讨论金融机构应对其 MRM 框架进行的增强,以在整个模型生命周期内有效管理风险。我们还将讨论衡量偏差和嵌入公平性的各种技术,这些技术是实现高模型性能的关键。
摘要我们提出了Fairx,这是一种基于python的开源基准测试工具,旨在全面分析公平,效用和解释性(XAI)的模型。FAIRX使用户可以使用各种公平指标,数据实用程序指标来训练基准测试模型,并评估其公平性,并在统一框架内生成模型预测的解释。现有的基准测试工具无法评估从公平生成模型产生的合成数据,也不支持培训公平生成模型。在Fairx中,我们在收集我们的Fair-Model库(预处理,处理,后处理)和评估指标中添加了公平生成模型,以评估合成公平数据的质量。此版本的FaiRX支持表格数据集和图像数据集。它还允许用户提供自己的自定义数据集。开源Fairx基准测试包在https://github.com/fahim-sikder/fairx上公开可用。
本评论论文研究了道德考虑因素,并提出了确保AI驱动金融服务公平性的解决方案。人工智能(AI)技术越来越多地整合到金融系统中,提供了提高效率和个性化服务等收益。但是,金融服务中AI的部署引发了与偏见和歧视,透明度和问责制,隐私权和算法公平性有关的道德问题。培训数据中固有的偏见可能导致歧视结果,而不透明的决策过程却挑战了透明度和问责制。隐私问题是由于广泛的数据收集而引起的,需要采取强大的数据保护措施。实现算法公平提出了复杂的挑战,需要采取策略来减轻偏见并确保公平的结果。要应对这些挑战,本文提出了几种解决方案。算法审核和透明度度量对于检测和纠正AI系统中的偏见至关重要。包容性数据实践促进了代表性数据集的使用,减轻偏见并增强公平性。监管框架在设定道德标准和执行合规性方面起着至关重要的作用。道德AI设计原则指导负责的AI系统的开发,该系统优先考虑公平和透明度。利益相关者协作促进了行业范围内的共识和问责制。通过推进这些领域,利益相关者可以在金融服务中建立一个更公平和值得信赖的AI生态系统,增强公共信任并促进负责的AI采用。未来的研究应重点关注高级偏见检测技术,可解释的AI(XAI),用于透明度,全面的道德框架,适合AI治理,影响评估,跨学科合作和消费者教育。
AI是最奇妙的技术领域之一,它为与多元化的地区提供了几个方面。AI的力量带来了许多悬而未决的道德困境,在其在独立决策制定方面的扩张过程中需要关注。伦理AI是AI中包含的全包宇宙,涵盖了偏见校正,公平性和责任机制的安装。AI系统中的偏见可以是一种有缺陷的算法的表现,因此可以区分算法。因此,可能要应用诸如数据预处理和公平算法之类的操作来解决该问题。在整个AI系统中都有一些自然的公平性,但是这种公平的结果应该是与每个人的每个人打交道,并以相同的条件对待,并且必须采取一种全面的方法来解决社会力量。道德AI的第三个关键方面是责任制,从某种意义上说,它要求清晰的框架来定义责任的内容,并为AI系统中的权力询问和遏制设置程序。它将回顾AI已经存在的道德挑战,并提供一个假设的模型,该模型将指导行业的利益相关者创建技术先进,道德上合理且对社会有益的AI系统。需要解决这些道德问题,以便根本没有道德问题,同时创建AI来提高我们的智力能力,并且不会损害我们的道德准则。完整的论文以更详细的方式详细阐述了这些问题。它对AI以及开发人员,政策制定者和用户的道德方面提供了详细的分析。
B9/67C 2024 年 8 月 19 日 行政长官 全体认可机构 先生/女士, 使用生成人工智能的消费者保障 我谨致函,向认可机构提供一套关于从消费者保障角度在面向客户的应用中使用生成人工智能(“GenAI”)的指导原则。鉴于大数据分析和人工智能(“BDAI”)的发展,香港金融管理局(“金管局”)于 2019 年 11 月 5 日在《认可机构使用大数据分析和人工智能的消费者保障》通函中发布了一套指导原则(“2019 年 BDAI 指导原则”),重点关注四个主要领域,即管治和问责、公平、透明度和披露,以及数据隐私和保护(请参阅附件 1 的简要摘要 1 )。这些指导原则已被证明对银行和客户有益,并有助于促进香港银行业 BDAI 的健康发展,正如香港金融管理局最近进行的一项调查显示 BDAI 使用案例激增所见(调查结果摘要见附件 2)。更重要的是,2019 年 BDAI 指导原则还有助于增强客户对使用采用 BDAI 的银行服务的信心。近几个月来,香港金融管理局注意到银行业对在其运营中采用 GenAI 的兴趣日益浓厚。GenAI 是 BDAI 的一种形式,可以生成新内容,例如文本、图像、音频、视频、代码或其他媒体,