在此补充信息中,我们将证明并显示在手稿主要部分中使用的几个关键定理和观察结果。在下一节中,我们首先证明了两个与两个多求和器 - 多响应者Ultimatum游戏(MPMR UG)具有独特的进化稳定策略。我们还证明,在复制者的动力学下,人口组成的球员纳什均衡状态,稳定状态的人口扮演着派生的进化稳定策略,尽管在人群范围内。在“一般情况下”,我们将结果从两个和两个mpmr ug扩展到多个响应者和多个建议者的任意数量,并表明,在这种情况下,对于任何子游戏,也有一个独特的进化稳定策略(除了纯零报价外)。此外,我们证明,如果响应者在每个子游戏中扮演此ESS NASH均衡,那么在体面的NASH平衡建议中必须提出相同的优惠。
执行摘要 社会公平(也称为公平和正义)是指收益和成本的分配,以及这种分配是否公平和适当。交通政策和规划决策对公平有重大影响:它们影响公共资源的分配、人们的生活质量和经济机会,以及旅行者给社区带来的外部成本。人们关心这些影响——他们希望规划决策能够反映公平目标。因此,从业者有责任在交通规划分析中评估公平影响。交通公平是一个及时的问题。过去,交通系统的性能主要基于旅行速度进行评估,这有利于更快但更昂贵和资源密集型的交通方式,例如驾驶,而不是更慢但更实惠、更包容和更高效的交通方式,例如步行、骑自行车和公共交通。公平辩论主要考虑交通资金的公平性,例如应如何征收和分配燃油税,以及不同车辆支付道路成本的份额程度。很少考虑交通系统是否为非驾驶员服务,或者规划决策如何影响外部成本,例如交通拥堵、碰撞风险和对其他人造成的污染。结果往往是不公平的。例如,许多高速公路项目破坏了多式联运城市社区,因为规划过程认识到这些项目为驾车者带来的好处,但很少考虑到它们对居民造成的可达性、宜居性和经济机会的降低。这些高速公路现在受到广泛批评,有些可能会被拆除,但它们造成的损害是不可逆转的。再举一个例子。大多数司法管辖区都有路外停车最低限额,这会使房屋成本增加数万美元,使普通家庭每周的食品杂货账单增加几美元。这是不公平的,因为它迫使驾驶率低于平均水平的家庭补贴驾驶率高于平均水平的邻居的停车费。然而,这些公平影响往往被忽视;在评估停车最低限额时,规划人员很少分析谁最终承担成本或它们如何影响住房和食品负担能力。这些例子说明了在交通规划中需要更全面的公平分析。然而,这可能具有挑战性。如何定义公平、考虑和衡量影响以及对人员进行分类会显著影响结果。一项决策可能以一种方式评估时看起来公平,但以另一种方式评估时则不然。没有单一的正确方法来评估交通公平性。通常最好考虑各种观点、影响和分析方法。公平规划需要参与交通决策的人们了解这些问题。本报告概述了主要的交通公平概念,并描述了将公平目标纳入政策和规划分析的实用方法。
该项目研究了低收入社区中建筑防寒保暖、节能、电气化和可再生能源发电的影响。分析使用社区规模的建筑能源模型和优化工具来分析这些措施。分析考虑了当地电力分配系统的影响。建筑措施的评估依据是能源总成本、碳和污染物排放量减少的变化以及室内舒适度的改善。分析表明,用电器代替燃气器具是减少碳和污染物排放的最有效方法。特别是,热泵热水器可以减少 40% 至 50% 的碳和污染物排放量。无管道空气源热泵是减少空间供暖碳排放所必需的,但由于建筑物没有空调,因此成本也大幅增加。然而,在目前的公用事业费率和设备成本下,电气化会增加所有居民的总能源成本。必须将低收入租户的公用事业费率降低到现有水平以上,并且必须补贴设备,以避免能源负担加倍。该分析包括减少水电费并支持防寒保暖和节能的低收入援助计划。对于低收入居民,在热水电气化期间,公用事业费率降低幅度必须从目前的 33% 提高到 40%,以实现公用事业账单平价,因此必须增加对热泵热水器的补贴。
摘要。广告是电子商务平台的关键收入来源,也是其卖方的重要在线营销工具。在本文中,我们探索了动态广告分配,每个客户到达电子商务平台的到达时有限,在单击广告时,cus tomers遵循选择模型。是在最近倡导在线广告交付算法公平性的倡导中,我们通过对不同广告和CUS Tomer类型的点击进行评估的一般公平度量指标调整了广告的价值。原始的在线广告分配问题是棘手的,因此我们提出了一个新颖的随机程序框架(称为两个阶段目标debt),该框架首先决定点击键入目标,然后设计一个AD分配策略,以在第二阶段满足这些目标。我们显示了原始问题,放松的点击目标优化和流体 - 敏感性(流体)con Vex程序之间的渐近等效性。我们还设计了一种债务加权算法算法,并证明,只要问题大小尺寸到无穷大,该算法在最佳的第一阶段点击目标下(渐近)是最佳的。与流体启发式及其解决变体相比,我们的方法具有更好的可扩展性,并且可以在整个视野中更加顺利地耗尽广告预算,这对于在线广告业务中非常需要实践。最后,我们提出的模型和算法有助于下一步提高在线电子商务平台的AD分配的公平性,其效率很大。
摘要:我们目睹了这样一个时代,即使是那些从国际概念、规范和价值观中引入、发展并不同程度地受益于霸权的国家和机构,也不遵守或维护这些所谓的国际规范或价值观。例如,一个根据联合国规范建立和认可的国家可能会对平民和联合国维和特派团采取敌对行动,但联合国国家对此的抗议却微弱无力。我们地区社会对充满双重标准的所谓国际司法体系的不可信性、伊拉克和阿富汗等不义入侵的灾难性后果以及破坏性的全球伊斯兰恐惧症的正常化有着深刻的记忆,这说明有必要记住并将地区规范和价值观放在首位。关于公平与欧洲价值观相符:人工智能监管的跨学科视角或去殖民化人工智能协调:开放性、Vis ́ esa -Dharma 和包括被排除的知识等主题的研究工作产生了寻找人工智能 (AI) 与土耳其和伊斯兰价值观协调的动机。这项研究工作的驱动力是,所有算法决策系统都在某种程度上包含偏见,非西方世界需要构建自己的基于价值观的技术和社会学发展模式,因为对所谓的国际正义或所谓的民主价值观没有多少信心。这项研究包括对大数据、算法和人工智能基础知识的简要信息的检查。强调了厚数据和数字人类学的重要性。人工智能的误用和滥用已被确定为最重要的挑战之一。维果茨基关于社会学习、技术理论的社会建构和世界观理论的论点可能为构建一种可能按照土耳其和伊斯兰价值观发展的人工智能方法的理念提供了一些论据。我们还利用了去殖民化人工智能论证、人工智能方法的公平性以及安纳托利亚酵母世界观来支持我们的论证。最后,我们简要介绍了土耳其和伊斯兰价值观,但仅限于本研究的范围。
数字双胞胎的患者心脏有可能实现个性化治疗并改善患者预后。只有可以从患者数据(例如图像)中有效地创建数字双胞胎的方法,才能充分实现这种潜力。已经在使用最先进的人工智能(AI)技术实现这一目标的努力。但是,最近的工作表明,在接受人口统计学不平衡数据集训练时,用于图像分析的AI工具可能会遭受隐藏的偏见,即他们可能是“不公平的”。例如,根据模型的训练数据中这些受保护组的分布,AI心脏图像分割模型可以表现出不同性别和种族的不同水平的性能。尚未研究基于数字双胞胎的基于AI的偏见,这依赖于这种技术。该项目将进行第一次此类调查,并将重点放在心脏病学领域。项目描述
算法在不同的人口群体中可能表现不同。例如,如果一个心理健康工具主要基于来自白人中产阶级的数据进行训练,那么它可能无法准确诊断或治疗其他种族人群的疾病(Buolamwini 和 Gebru 2018)。偏见的另一个来源是人工智能工具的设计和开发过程。如果开发团队缺乏多样性或未能考虑不同人群的具体需求,那么最终的工具可能会无意中反映出其创造者的偏见。这可能导致工具对某些群体效率较低甚至有害,加剧心理健康护理中现有的差距(Gebru 等人 2020)。此外,算法本身也会带来偏见。例如,机器学习算法通常会优化准确性或效率而不考虑公平性。因此,它们可能会强化数据中现有的偏见,甚至通过其决策过程产生新的偏见(Hardt 等人 2016)。
信用风险评估已成为现代金融领域关于明智贷款决策的主要关注点之一。尽管一些研究使用了传统的逻辑回归和线性判别分析技术,但在当今复杂且数据丰富的环境中,这些技术已越来越不适用。此类模型通常难以处理大型数据集和非线性关系,从而降低了其预测能力和适应性。人工智能 (AI) 和机器学习 (ML) 为信用风险建模提供了两种最具创新性的方法。本文回顾了一些用于提高信用风险评估准确性和效率的 ML 模型,从随机森林和支持向量机到神经网络。与更传统的模型相比,人工智能模型可以通过使用大量结构化和非结构化信息(包括社交媒体活动和交易历史等替代信息源)来提高预测准确性。然而,尽管具有明显的优势,但在信用风险评估中使用人工智能仍面临一些挑战,包括模型不透明、偏见和法规遵从性。这种“黑匣子”的性质,尤其是对于深度学习算法而言,会限制其可解释性,并使监管合规性和决策合理化变得复杂。为了解决这种“黑匣子”性质引起的问题,已经实施了可解释的人工智能技术,即 Shapley 值和 LIME,以提高模型的透明度,并提高利益相关者对决策支持系统的信任。本评论旨在评估人工智能和机器学习在信用风险评估中的当前应用,权衡各种模型的优势和局限性,并讨论信贷机构采用这些模型时所涉及的道德考虑和监管挑战。
摘要 - 将人工智能(AI)的快速整合到诸如医疗保健,金融和刑事司法等关键领域已引起了重大的道德问题,尤其是围绕机器学习模型中的偏见和公平性。尽管它们有可能改善决策过程,但这些模型仍可以使现有的社会偏见永存甚至加剧。本研究旨在调查AI系统中缓解偏置的方法,重点是平衡公平和性能。对2018年至2023年之间发表的150篇研究文章进行了系统评价,并在25个基准数据集上进行了实验,以评估各种机器学习算法和缓解偏差的技术。结果表明,在模型培训期间,偏差降低了23%,九个公平度指标的平均提高了17%,尽管总体准确性最高为9%。该研究强调了公平与绩效之间的权衡,这表明创建既公平又有效的AI系统仍然是一个持续的挑战。这些发现强调了对解决偏差的自适应框架的需求,而不会显着损害模型性能。未来的研究应探讨特定于领域的适应和可扩展的解决方案,以在整个AI开发过程中整合公平性,以确保更公平的结果。