公平意味着认识到,根据我们的背景和身份,每个人都面临不同程度的结构性和系统性优势和劣势,这些优势和劣势会影响我们获得资源和机会的机会,以及我们在工作场所内外的归属感。Insignia Financial 致力于通过提供所有员工取得成功和建立有意义的职业生涯所需的工具、资源和环境来创造包容性的体验。
2023 年末,我们召开了一系列会议,探讨利用技术支持患者导航的机会。我们得出的结论是,如果负责任地使用技术,它有望扩大导航资源的覆盖范围,以增强患者的能力,并使导航员和其他护理团队成员能够更有效地工作,从而专注于工作中最重要的部分——直接照顾患者。然而,这种潜力取决于患者、导航员和护理团队获取和使用所需技术的能力。最近决定让平价连接计划的资金失效,导致数百万低收入美国人无法或只能有限地使用远程医疗预约和患者门户等数字医疗平台。联邦政府持续支持宽带补贴和基础设施对于扩大使用技术导航的覆盖范围至关重要。我们还必须通过反映现代技术格局的连贯法律和法规,更好地保护美国人民的健康信息。此外,我们必须优先考虑互操作性,以便患者及其护理团队能够随时获取他们需要的所有信息。
尽管我们对机器学习中的公平性的理解已经大大发展,但我们对扩展学习(RL)公平性的理解仍然很新生。大多数诉讼都在一声分类任务中公平。但是,现实世界中支持RL的系统(例如,自动驾驶汽车)的复杂性要复杂得多,因为代理在长时间内在动态环境中运行。为了确保对这些系统的负责任开发和部署,我们必须更好地了解RL中的公平性。在此过程中,我们调查了文献,以提供RL中公平的前沿的最新快照。我们首先要重新查看RL中可能出现公平考虑的地方,然后讨论到目前为止提出的RL公平性的各种定义。我们继续强调了用于在单一和多代理RL系统中实施公平性的方法研究人员,然后展示了已研究了公平RL的不同应用域。最后,我们批判性地研究了文献中的差距,例如在RLHF背景下的公平性,在将来的工作中仍然需要解决这些差距,以便在现实世界中真正实现公平RL。
哈佛医学院通过机器学习(ML)系统的攻击性诊断系统通常被认为是客观且公平的。但是,它可能对某些患者亚组表现出偏见。造成这种情况的典型原因是ML系统筛查的疾病特征的选择,ML系统从人类临床判断中学习,这些判断通常是有偏见的,并且ML中的公平性通常被不当概念化为“平等”。具有此类参数的ML系统无法准确诊断并满足患者的实际健康需求以及他们如何依赖患者的社会身份(即交叉性)和更广泛的社会条件(即嵌入)。本文探讨了鉴于患者的交叉性和健康的社会嵌入性,以确保ML系统的公平性的道德义务。本文提出了一组干预措施来解决这些问题。它建议对ML系统的发展进行范式转移,使他们能够筛查内源性疾病原因和患者相关潜在的健康影响(例如社会经济的情况。本文提出了一个道德要求的框架,以建立这一转变并进一步确保公平。关键字:机器学习;公平正义;道德要求;放射学I型机器学习(ML)系统在临床护理环境中发现了在医疗保健监测,诊断和风险管理中的应用(Bates&Zimlichman,2015; Chen等,2024; Obermeyer等,2019)。但是,此光环可能没有完全合理。需求集中患者的交叉性和健康的社会嵌入性,最值得注意的是(i)通过(i)整合到ML系统中,适用于患者情况对健康影响的可测量医学指标,(ii)在道德上,多样性,代表性和正确的患者数据,与相关的疾病特征和(III)相关的社会敏感性和(III)涉及的疾病以及(III)的敏感性和(iii)涉及的数据,以及涉及的研究,并涉及社会敏感的系统,并将其涉及互联网互动,并将其涉及互联网效果。利益相关者。在放射学中,ML系统用于协助或增强临床医生在各种图像获取,分析,解释,诊断和决策支持任务中的工作(Hanneman等,2024; Yu等,2024)。这种更广泛采用的主要驱动力似乎是ML系统在图像解释和精确方面的表现(Pot等,2021; Satariano等,2023; Yu等,2024)。所谓的“自动化偏见” - 人类对自动化系统产生的信息的有效性和预测能力的倾向”(Pot等,2021,p。7) - 赋予了ML ML系统,具有对象和公平性的AURA(Pot等,20211)。对实现这些高希望的主要挑战已被证明是ML偏见系统和相关不公平结果的流行(Gichoya等,2022,2023; Hanneman等,2024; Pot et al。,2021)。ML偏见的医疗保健访问和治疗不足,引起了ML系统引起或永久存在的整体不公平性的道德问题。实证研究已系统地记录了ML偏见系统的持久性和对历史上服务不足的患者人群的不公平治疗,包括放射学(Obermeyer等,2019; Gichoya et al。,2023; Seyyed-Kalantari-Kalantari-Kalantari-Kalantari et al。等,2022; Mukherjee等人,2022年)。
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
互联网拥塞控制(CC)长期以来在网络系统中提出了一个挑战控制问题,最近的方法越来越多地纳入了深度强化学习(DRL),以增强适应性和性能。尽管有希望,但基于DRL的CC方案通常会遭受公平性差,尤其是在培训期间未见的网络环境时。本文介绍了陪审团,这是一种基于DRL的新型CC计划,旨在实现公平性。At its heart, Jury decouples the fairness con- trol from the principal DRL model with two design elements: i) By transforming network signals, it provides a universal view of network environments among competing flows, and ii) It adopts a post-processing phase to dynamically module the sending rate based on flow bandwidth occupancy estima- tion, ensuring large flows behave more conservatively and smaller flows more aggressively, thus achieving a fair和平衡的带宽分配。我们已经完全实施了陪审团,广泛的评估证明了其在仿真和现实世界网络的广泛范围内的强大结合特性和高性能。
抽象的亚符号方法,例如机器学习(ML),深度学习和大型语言模型(LLMS)具有明显的高级人工智能,在问题回答和本体论匹配等任务中都表现出色。尽管他们成功了,但LLMS培训数据集和源代码中缺乏开放性带来了挑战。例如,一些基于ML的模型不共享培训数据,从而限制了透明度。诸如schema.org之类的当前标准为数据集和软件元数据提供了一个框架,但缺乏ML特定指南。该立场论文通过提出与公平(可发现性,可访问性,互操作性,可重复使用性)原理相一致的ML模型元数据的全面模式来解决这一差距。我们旨在提供有关ML模型必不可少的元数据格式的必要性,展示其集成到ML存储库平台中的必要性,并展示该模式与数据集元数据结合在一起,可以评估ML模型对公平原理,促进ML开发中的公平性。
本评论论文研究了道德考虑因素,并提出了确保AI驱动金融服务公平性的解决方案。人工智能(AI)技术越来越多地整合到金融系统中,提供了提高效率和个性化服务等收益。但是,金融服务中AI的部署引发了与偏见和歧视,透明度和问责制,隐私权和算法公平性有关的道德问题。培训数据中固有的偏见可能导致歧视结果,而不透明的决策过程却挑战了透明度和问责制。隐私问题是由于广泛的数据收集而引起的,需要采取强大的数据保护措施。实现算法公平提出了复杂的挑战,需要采取策略来减轻偏见并确保公平的结果。要应对这些挑战,本文提出了几种解决方案。算法审核和透明度度量对于检测和纠正AI系统中的偏见至关重要。包容性数据实践促进了代表性数据集的使用,减轻偏见并增强公平性。监管框架在设定道德标准和执行合规性方面起着至关重要的作用。道德AI设计原则指导负责的AI系统的开发,该系统优先考虑公平和透明度。利益相关者协作促进了行业范围内的共识和问责制。通过推进这些领域,利益相关者可以在金融服务中建立一个更公平和值得信赖的AI生态系统,增强公共信任并促进负责的AI采用。未来的研究应重点关注高级偏见检测技术,可解释的AI(XAI),用于透明度,全面的道德框架,适合AI治理,影响评估,跨学科合作和消费者教育。
BTM 储能可以提供电网服务,例如频率调节、电压支持和电网投资延期。• 由于目前 BTM 储能为系统所有者提供收入的机会不足,因此在抵消公用事业购买电力的成本超过屋顶光伏装置前期成本的州,经济优化有利于仅使用光伏系统。
加州继续通过为专门的公平计划提供差异化的监管待遇,突破能源效率 (EE) 规划和设计的界限。这些计划优先将 EE 服务扩展到服务不足、难以覆盖和弱势社区,并且没有像资源获取计划那样的节能要求和特定的成本效益测试门槛。此外,由于高达 30% 的大型投资者拥有的公用事业和社区选择聚合器预算(更多用于区域能源网络)被划拨给专注于公平和 EE 行业基础设施(公平和市场支持)领域的计划,加州公用事业委员会对执行其环境和社会正义行动计划的承诺通过这些计划获得了切实的形式。本文将: