Alice prefs Bob prefs SD outcome SD ranks TTC outcome TTC ranks a ≻ b a ≻ b A : a,B : b A : 1 ,B : 2 A : a,B : b A : 1 ,B : 2 a ≻ b b ≻ a A : a,B : b A : 1 ,B : 1 A : a,B : b A : 1 ,B : 1 b ≻ a a ≻ b A : b,B : a A :1,b:1 a:b,b:a:a:1,b:1 b a b a b a a:b,b:a:a:a:a:a:1,b:2 a:a,b a:a,b a:b a:b a:2,b:1表1爱丽丝,鲍勃,鲍勃及其水果。我们假设TTC的初始捐赠为A:a,b:b。
生成的AI(Genai)标志着AI从能够“识别”到AI的转变,可以“生成”各种任务的解决方案。随着生成的解决方案和应用变得越来越复杂和多方面,新颖的需求,目标和可能性已出现以解释性(XAI)。在这项工作中,我们阐述了Xai为何在Genai的兴起及其在解释性研究中的挑战中变得重要。我们还揭露了解释应该实现的小说和新兴的逃避者,例如验证能力,互动性,安全性和成本方面。为此,我们专注于调查现有作品。此外,我们提供了相关维度的分类法,使我们能够更好地表征Genai的现有XAI机制和方法。我们讨论了不同的途径,以确保XAI,从培训数据到提示。我们的论文为非技术读者提供了Genai的简短而简洁的技术背景,重点介绍了文本和图像,以更好地了解Genai的新颖或改编的XAI技术。但是,由于Genai的大量作品,我们决定放弃与解释的评估和使用相关的XAI的详细方面。因此,手稿既利益,都以技术为导向的人和其他学科,例如社会科学家和信息系统研究人员。我们的研究路线图为未来的研究提供了十个以上的方向。
摘要在本章中,我们将三个不同的思想链整合在一起,认为“公平”的概念在各种文化之间差异很大。因此,确保人类互动符合相关的公平标准,需要深入了解部署AI-ai-ai-apecy系统的文化背景。不这样做,不仅会导致AI-ai-ai-ai-ai-a-a-ai-a-a-a-a-a-a-a-a-a-a-a-necy结果产生不公平的结果,而且还会降低对系统的合法性和信任。第一个链涉及技术行业中所采取的主要方法,以确保支持AI支持的系统是公平的。这种方法是将公平性降低到可以普遍应用的一些数学形式主义,这是一种典型的西方公平概念。第二链涉及公平的替代概念,它们源于东方哲学传统,即儒家美德伦理。了解来自各种文化背景的个人如何看待公平性(尤其是他们对人类与人类互动中公平性的信念)对于理解他们将如何解释人类互动中的公平性至关重要。基于这些哲学和行为差异的基础,正如实证研究所强调的那样,第三链融合了政治学和跨学科研究的见解。这种观点为设计支持AI的系统提供了宝贵的指导,以与上下文相关的公平标准保持一致。在制度决策的背景下研究现有的对公平性的信念为人们从AI生成的决策中的期望提供了宝贵的见解。这些期望通常包括关键要素,例如足够的透明度,明确的问责制以及与系统做出的决定的机制 - 所有这些都是程序公平的重要组成部分。不是采用一种千篇一律的方法来确保AI系统的设计和部署,必须仔细考虑包括社会政治和文化背景在内的操作环境,以确保该系统符合相关的公平标准。
问题陈述ML用于跨各种领域的结果决策,例如减少累犯,雇用和信贷贷款。但是,可以通过使用历史人类数据的算法来学习和巩固社会偏见。不同类型的偏见,可以在ML管道的每个步骤中引入。公平性已成为算法决策的重要考虑因素,因为最近的案例强调了减轻对某些人口统计群体(Barocas,Hardt和Narayanan 2023)的不合理的缺点的重要性。在ML中的一项工作努力在不同的群体中为公平性而奋斗,这导致了许多所谓的群体公平标准。群体公平标准关注算法决策对个人生活的影响(Mehrabi等人。2021)。目标是避免在社会人口统计学群体之间进行系统的缺点。尽管ML取得了有希望的进展,但仍有一个警告:良好的预测模型不会自动导致公平。即使是一个完全准确的预测指标也不会为受影响的个体的公平结果。但是,量化决策系统的公平性并不简单,因为没有普遍接受的定义对算法决策系统的含义。任何在道德上适当的公平概念都在很大程度上取决于上下文,即使在给定的上下文中,人们可能会不同意“公平”。使Matters更加困难,先前的研究表明
03.01 除本协议明确限制外,公司的管理和劳动力的指导,包括但不限于所提供的服务、员工绩效的时间表和公平标准、轮班时间表和时间、提供服务的方法、流程和手段、要购买的材料、雇用、晋升、降职和调动员工的权利、领导的选择及其轮班分配、制定合理的行为准则、因正当原因解雇或惩戒员工、以及维持员工的效率(培训),均为公司的唯一和专属权利和责任。本协议未明确涵盖的所有事项均由管理层单独负责。
如今,人工智能越来越多地被用于许多高风险决策应用中,其中公平性是一个重要问题。目前,已经有许多人工智能存在偏见并做出可疑和不公平决策的例子。人工智能研究界提出了许多方法来衡量和减轻不必要的偏见,但其中很少有方法涉及人类决策者的意见。我们认为,由于不同的公平标准有时无法同时满足,并且实现公平通常需要牺牲模型准确性等其他目标,因此,关键是要了解并遵守人类决策者关于如何在这些目标之间进行权衡的偏好。在本文中,我们提出了一个框架和一些示例方法来引出这些偏好并根据这些偏好优化人工智能模型。
• Medi-Cal 转型。加州推进和创新 Medi-Cal (CalAIM) 改革引入了重大的计划变更和扩展,以提供全人护理,解决医疗和社会健康驱动因素,改善质量结果并减少健康不平等,并促进更加一体化的 Medi-Cal 交付系统。Medi-Cal 计划的任务是实施新计划/福利,与社会服务机构和社区合作伙伴建立伙伴关系,并在解决社会健康驱动因素的新服务领域发展内容专业知识。此外,计划现在负责提高质量、人口健康和公平标准,这需要高度关注和投资。
如今,人工智能越来越多地被用于许多高风险决策应用中,其中公平性是一个重要问题。目前,已经有许多人工智能存在偏见并做出可疑和不公平决策的例子。人工智能研究界提出了许多方法来衡量和减轻不必要的偏见,但其中很少有方法涉及人类决策者的意见。我们认为,由于不同的公平标准有时无法同时满足,并且实现公平通常需要牺牲模型准确性等其他目标,因此,关键是要了解并遵守人类决策者关于如何在这些目标之间进行权衡的偏好。在本文中,我们提出了一个框架和一些示例方法来引出这些偏好并根据这些偏好优化人工智能模型。
ETS 不会为 ParaPro 评估设定合格(通过)分数。选择使用评估来评估辅助专业人员资格的每个机构(州、学区或其他机构)都负责确定自己的合格(通过)分数。ETS 愿意与机构合作,按照推荐的专业实践开展通过分数研究,例如,如由 AERA、APA 和 NCME 联合制定的 ETS 质量和公平标准以及教育和心理测试标准中所述。ETS 与使用 ParaPro 评估的机构达成的协议是,评估分数不是机构做出决定的唯一标准。要查看使用 ParaPro 评估及其通过分数的最新州和学区列表,请访问:http://www.ets.org/parapro/state_requirements/ 。
摘要:在本综述中,算法偏见和公平性的概念得到了定性和数学上的定义。给出了算法开发中出现意外偏见或不公平时可能出现的问题的说明性示例。讨论了可解释性、可问责性和透明度对于人工智能算法开发和临床部署的重要性。这些都基于“primum no nocere”(首先,不伤害)的概念。提供了减轻任务定义、数据收集、模型定义、训练、测试、部署和反馈中的不公平和偏见的步骤。将讨论如何实施公平标准,最大限度地提高利益,最大限度地减少对神经放射学患者的不公平和伤害,包括为神经放射学家提供建议,因为人工智能算法在神经放射学实践中获得认可并纳入常规临床工作流程。