摘要预后风险预测模型的主要目的是确定有疾病风险的人,以实现早期干预。当前的预后心血管风险预测模型,例如系统的冠状动脉风险评估(Score2)和Score2老人(Score2-OP)模型,这些模型代表了评估临床上使用的金标准,用于评估患者对欧盟重大心血管事件(EU)的风险,通常忽略了社会经济确定性和资源的认可和资源,这些都忽略了社会经济确定性和资源的范围。本文的中心建议是在风险预测模型中明确包含心血管疾病的个体社会经济决定因素。是否可以通过实验研究,潜在的临床实施和公共卫生分析来解决预后风险预测模型是否可以促进健康公平的问题。本文在心血管疾病预测中引入了四个独特的公平概念,并在心脏代谢健康中缩小现有差异的潜力。
我们研究了算法在模拟的工作就业实验中使用算法对个人使用的特征的看法。首先,要求一组实验参与者(选择者)推荐制定就业决定的算法。第二,告诉参与者的不同集合(工人)有关设置,该算法表面上选择了一个子集来执行图像标记任务。对于选择者和工人参与者,算法选择主要在非遗传的功能的包含,并且与任务直接相关,或者与这些功能直接相关,除了这些功能导致更高准确性外,相关性不明显。我们发现,选择器对更准确的算法有清晰的偏爱,他们也认为这是更公平的。工人待遇更加细微。被雇用的工人在算法中基本上是冷漠的。相比之下,未雇用的工人对包括非挥发性但相关特征的算法表现出更大的积极情感。然而,非遗传特征的弱势阀的工人对使用的情感表现出比平均水平更大的情感,尽管这似乎很大程度上取决于此类特征的性质。
本报告是由资源为未来(RFF),环境防御基金(EDF)和其他合作伙伴编写的一系列论文的结晶,这些论文审查了培训政策和计划,以促进对工人和社区的公平性,以过渡到低层气体排放经济,通常被称为公正过渡。该系列关注现有的公共政策和计划,以主题为主题为“工具箱中的工具”,以寻求有效策略来应对与过渡相关的挑战的有效策略。我们专注于可以支持煤炭,石油或天然气生产或消费的地区的工人和社区的政策和计划,一直是繁荣的领先雇主和驱动力。该系列中的其他报告介绍了美国的说明性案例,并描述了国外的政策创新。
摘要:在零售业中采用人工智能(AI)已经显着改变了该行业,从而实现了更多个性化的服务和有效的运营。但是,AI技术的快速实施引起了道德问题,尤其是在消费者的隐私和公平方面。本研究旨在分析零售中AI应用的道德挑战,探索零售商可以在道德上实施AI技术的方式,同时保持竞争力,并就道德AI实践提供建议。描述性调查设计用于从主要电子商务平台上收集300名受访者的数据。使用描述性统计数据(包括百分比和平均得分)分析数据。的调查结果表明,消费者对AI-wiond零售应用程序收集的个人数据量的关注程度很高,许多人表达了对他们的数据管理方式缺乏信任。同样,公平是另一个主要问题,因为大多数人认为AI系统不会平等对待消费者,从而引起对算法偏见的担忧。还发现,不损害道德原则(例如数据隐私和公平性),AI可以提高业务竞争力和效率。数据隐私和透明度被强调为零售商需要集中精力的关键领域,这表明对更严格的数据保护协议的需求强烈,并且对AI系统的持续审查。该研究得出结论,零售商在部署AI系统时必须优先考虑透明度,公平性和数据保护。AI驱动的系统现在播放该研究建议确保在AI流程中进行透明度,进行定期审核以解决偏见,将消费者的反馈纳入AI开发以及强调消费者数据隐私。关键字:算法偏见,人工智能(AI),消费者隐私,数据保护,公平介绍零售中的人工智能(AI)在零售中的采用(AI)从根本上改变了行业,使零售商能够在优化供应链和库存管理的同时提供更具个性化和有效的服务。
Data Based Applications” Join Zoom Meeting https://us06web.zoom.us/j/87051605356?pwd=yDYvFmtn8K5MHV9dWosqEwWN85c1ya.1 Meeting ID: 870 5160 5356 Passcode: 989287 09:30-09:45
摘要:在本综述中,算法偏见和公平性的概念得到了定性和数学上的定义。给出了算法开发中出现意外偏见或不公平时可能出现的问题的说明性示例。讨论了可解释性、可问责性和透明度对于人工智能算法开发和临床部署的重要性。这些都基于“primum no nocere”(首先,不伤害)的概念。提供了减轻任务定义、数据收集、模型定义、训练、测试、部署和反馈中的不公平和偏见的步骤。将讨论如何实施公平标准,最大限度地提高利益,最大限度地减少对神经放射学患者的不公平和伤害,包括为神经放射学家提供建议,因为人工智能算法在神经放射学实践中获得认可并纳入常规临床工作流程。
摘要:本综述从定性和数学角度定义了算法偏见和公平性的概念。给出了算法开发中出现意外偏见或不公平时可能出现的问题的说明性示例。讨论了可解释性、可问责性和透明度对于人工智能算法开发和临床部署的重要性。这些都基于“primum no nocere”(首先,不伤害)的概念。提供了减轻任务定义、数据收集、模型定义、训练、测试、部署和反馈中的不公平和偏见的步骤。我们将讨论如何实施公平标准,以最大限度地提高效益并最大限度地减少对神经放射学患者的不公平和伤害,包括当人工智能算法被神经放射学实践接受并纳入常规临床工作流程时,神经放射学家应考虑的建议。
人工智能 (AI) 系统现在影响着人们生活各个方面的决策,从他们阅读的新闻文章到他们是否获得贷款。虽然使用人工智能可能会在做出这些重要决策时提高准确性和效率,但最近的新闻和研究报告表明,人工智能模型可能会表现出不公平的行为:从招聘模型中表现出的性别偏见,到累犯预测系统中的种族偏见。本论文通过考虑在创建人工智能系统的整个过程中所做的选择(即建模管道)如何影响公平行为,探索了理解和缓解人工智能公平问题的新方法。首先,我将展示如何通过考虑模型的端到端管道来扩展我们对不公平模型行为的理解。具体来说,我的工作通过展示建模流程某些部分(即学习规则)的不稳定性如何导致不公平,因为重要决策依赖于任意的建模选择,从而引入了人工智能系统稳定性与公平性之间的联系。其次,我将讨论如何考虑机器学习流程可以帮助我们扩展偏见缓解技术工具箱。在一个案例研究中,研究税务审计实践中与收入相关的公平性,我将展示在人工智能创建流程中进行的干预措施(即使这些干预措施表面上与公平性无关)不仅可以有效地提高公平性,而且通常可以减少预测效用和公平性之间的权衡。最后,我将概述人工智能建模流程为从业者在创建模型时提供的灵活性带来的好处和危险,包括讨论这种灵活性的法律影响,我称之为模型多样性。
人工智能(AI)已成为我们日常生活中不可或缺的一部分,从虚拟分析到推荐系统为各种应用提供了动力。但是,随着AI系统越来越多地与人互动并做出决定,对公平和偏见的担忧已经走向了最前沿。这些系统经常在大型数据集中受过培训,并不总是清楚地确保数据收集过程中数据质量的准则,可以无意中学习和延续这些数据集中存在的偏见,从而导致不公平的结果。一个众所周知的例子是美国刑事司法系统中使用的Compas系统,该系统预测被告再犯罪的可能性。Propublica的一项研究发现,该系统对非裔美国人被告有偏见,因为即使没有事先定罪,他们也更有可能被标记为高风险。应对这些挑战,AI研究界的一部分一直在探索各种策略,以确保偏见并确保公平。已经出现了大量方法,其中一些涉及重新处理用于培训此类系统的数据,而另一些方法涉及根据预定义的公平指标选择最佳模型,或者其他涉及为决策制定程序提供更透明的方法。而LLM是AI中最突出的突破之一,在广泛的
尽管文献中存在几种公平定义和缓解偏见的缓解技术,但所有现有的解决方案都在训练阶段后评估机器学习(ML)系统的公平性。在本文中,我们通过在模型培训之前和之后测试公平性来评估更全面的方法的第一步。我们使用对模型依赖性和独立公平指标之间关系的经验分析来评估所提出的方法的有效性,并将其定位在ML开发生命周期内。该研究使用2个公平指标,4种ML算法,5种实际数据集和1600个公平评估周期。当训练数据的分布和大小变化时,我们发现数据和模型公平度量之间的线性关系。我们的结果表明,在培训之前对公平性进行测试可能是一种“便宜”有效的方法,可以尽早获得有偏见的数据收集过程;检测生产系统中的数据漂移并最大程度地减少完整训练周期的执行,从而减少了开发时间和成本。