美国几个县使用一款预测累犯的应用程序来判断被告是否会再次犯罪。它始终为非裔美国人提供比白人更高的风险分数。事实是,预测与事后发生的情况不符。得分最低的白人最有可能犯罪。而得分最高的非裔美国人没有再次犯罪。这其中存在非常明显的偏见。另一个非常有趣的例子是预测政策。经验证据表明,警察,无论是隐性还是显性,都存在某种种族偏见。这一结论是基于用于决定巡逻哪些街区的算法。算法往往会强化偏见,因为如果算法显示某个地区的犯罪率更高,它就会派出更多的警察。如果更多的警察在一个地区巡逻,他们就会发现更多的犯罪。这是一个永无止境的循环。算法不会纠正偏见,也不会考虑到某个地区的实际统计数据。
美国几个县使用一款预测累犯的应用程序来判断被告是否会再次犯罪。它始终为非裔美国人提供比白人更高的风险分数。事实是,预测与事后发生的情况不符。得分最低的白人最有可能犯罪。而得分最高的非裔美国人没有再次犯罪。这其中存在非常明显的偏见。另一个非常有趣的例子是预测政策。经验证据表明,警察,无论是隐性还是显性,都存在某种种族偏见。这一结论是基于用于决定巡逻哪些街区的算法得出的。算法往往会强化偏见,因为如果算法显示某个地区的犯罪率更高,它就会派出更多的警察。如果更多的警察在某个地区巡逻,他们就会发现更多的犯罪。这是一个永无止境的循环。算法不会纠正偏见,也不会考虑到某个地区的实际统计数据。
代理商概述该部门在全州的12个州监狱中约有12,000名成年人监护。该部还为大约20,000名成年人的管理和监督提供了资金,包括县的监督,其中包括由DOC管理的两个县。Doc在惩教机构中在全国范围内得到认可,以便为个人提供过渡到社区时的认知,教育和工作技能。由于这些努力,俄勒冈州的累犯率下降了。为了进一步关注安全社区,安全的监狱和安全的工作场所,该部门创建了俄勒冈州问责制模式。该业务策略旨在使用评估,教育,治疗,工作,家庭参与和基于证据的社区监督实践来改变监禁和监狱监督期间的犯罪行为。它始于摄入期间的评估阶段,并影响整个监禁,重返社会和社区监督的个人。它的灵感来自该部门的公共安全,问责制和预防犯罪的使命。
算法在我们的私人和公共生活中扮演着许多重要角色。他们产生搜索引擎结果,在社交媒体上组织新闻源,并确定有希望的浪漫伴侣。他们为司法,贷款,社会福利和大学录取决定提供了信息。他们还提出了紧迫和烦恼的道德挑战。例如,美国刑事司法系统中使用的一些算法预测个人是否会累进。著名的是,已经发现这种算法表现出明显的种族和性别偏见,例如将黑人非累犯者评级为比白人非养育者更喜欢重新审判(Angwin等人(Angwin等),2016a,b)。在某种程度上对这种发现的反应中,算法公平的研究在计算机科学,哲学和其他领域中扮演着重要的作用。从这些研究中得出的理论上有趣且在道德上显着发现的是,实施明智的公平概念可以兑现,以付出代价(Corbett-Davies et al。,2017年; Menon和Williamson,2018年; Kearns and Roth,2019年)。
机器学习技术越来越多地用于高风险决策,例如大学录取,贷款归因或累犯预测。因此,至关重要的是,确保人类用户可以审核或理解所学的模型,不要创建或再现歧视或偏见,并且不会泄露有关其培训数据的敏感信息。的确,可解释性,公平性和隐私是负责任的机器学习开发的关键要求,在过去的十年中,这三者进行了广泛的研究。但是,它们主要被孤立地考虑,而在实践中,它们相互相互作用,无论是积极还是负面的。在本次调查文件中,我们回顾了有关这三个Desiderata之间相互作用的文献。更确切地说,对于每种成对相互作用,我们总结了认同的协同作用和紧张局势。这些发现突出了几种基本的理论和经验性冲突,同时还指出,当一个人旨在保留高水平时,共同考虑这些不同的要求是具有挑战性的。为了解决这个问题,我们还讨论了可能的调解机制,表明仔细的设计可以成功处理实践中这些不同的问题。
此资助机会公告(FOA)为公共或私人非营利组织(包括妇女,少数民族,社区和基于信仰的组织)提供了机会;高等教育的公共机构,包括西班牙裔服务机构,历史悠久的黑人学院和大学,由部落控制的,以及阿拉斯加和夏威夷本土服务的高等教育机构;有或没有501(c)(3)地位的非营利性博士后教育机构;工会,劳工或劳动力组织;非营利性行业组织;国家和地方政府; WIOA第166条下的印度或美国原住民实体在从国家惩教所或县或当地监狱中释放之前,根据WIOA第166条向符合条件的,被监禁的个人提供重新进入节目,并在释放后继续全面服务。通过开始重新进入服务,而参与者仍被监禁并继续发行后,这些项目旨在消除从监狱或监狱释放的时间差距以及入学到劳动力发展重新进入计划的时间差距。这些计划将导致基于技能的就业,改善个人向社区的过渡,并减少累犯。
人工智能算法辅助在高风险决策中的应用越来越多,这引起了人们对可解释人工智能 (xAI) 的兴趣,以及反事实解释在增加人机协作信任和减轻不公平结果方面的作用。然而,在理解可解释人工智能如何改善人类决策方面,研究还很有限。我们进行了一项在线实验,共有 559 名参与者参与,利用“算法在环”框架和现实世界的审前数据,研究从最先进的机器学习解释方法(通过 DiCE 的反事实解释和通过 SHAP 的事实解释)生成的算法审前风险评估的解释如何影响决策者对累犯的评估质量。我们的结果表明,反事实和事实解释实现了不同的理想目标(分别改善人类对模型准确性、公平性和校准的评估),但仍未提高人类预测的综合准确性、公平性和可靠性——重申了 xAI 对社会技术、实证评估的需求。我们最后讨论了用户对 DiCE 反事实解释的反馈,以及我们的结果对人工智能辅助决策和人工智能的更广泛影响。 xAI。
深度神经网络 (DNN) 是功能强大的黑盒预测器,在各种任务上都取得了令人印象深刻的表现。然而,它们的准确性是以牺牲可理解性为代价的:通常不清楚它们如何做出决策。这阻碍了它们在医疗保健等高风险决策领域的适用性。我们提出了神经加性模型 (NAM),它将 DNN 的一些表达能力与广义加性模型固有的可理解性相结合。NAM 学习神经网络的线性组合,每个神经网络都关注一个输入特征。这些网络是联合训练的,可以学习输入特征和输出之间任意复杂的关系。我们在回归和分类数据集上的实验表明,NAM 比广泛使用的可理解模型(如逻辑回归和浅层决策树)更准确。它们在准确性方面的表现与现有的最先进的广义加性模型相似,但更灵活,因为它们基于神经网络而不是增强树。为了证明这一点,我们展示了如何利用 NAM 对合成数据和 COMPAS 累犯数据进行多任务学习(由于其可组合性),并证明了 NAM 的可微分性使它们能够为 COVID-19 训练更复杂的可解释模型。源代码可在 neuro-additive-models.github.io 上找到。
问题陈述ML用于跨各种领域的结果决策,例如减少累犯,雇用和信贷贷款。但是,可以通过使用历史人类数据的算法来学习和巩固社会偏见。不同类型的偏见,可以在ML管道的每个步骤中引入。公平性已成为算法决策的重要考虑因素,因为最近的案例强调了减轻对某些人口统计群体(Barocas,Hardt和Narayanan 2023)的不合理的缺点的重要性。在ML中的一项工作努力在不同的群体中为公平性而奋斗,这导致了许多所谓的群体公平标准。群体公平标准关注算法决策对个人生活的影响(Mehrabi等人。2021)。目标是避免在社会人口统计学群体之间进行系统的缺点。尽管ML取得了有希望的进展,但仍有一个警告:良好的预测模型不会自动导致公平。即使是一个完全准确的预测指标也不会为受影响的个体的公平结果。但是,量化决策系统的公平性并不简单,因为没有普遍接受的定义对算法决策系统的含义。任何在道德上适当的公平概念都在很大程度上取决于上下文,即使在给定的上下文中,人们可能会不同意“公平”。使Matters更加困难,先前的研究表明
人工智能 (AI) 有能力在多个维度上显著改变高等教育;然而,它同时也在这个特定领域遇到了各种障碍。人工智能 (AI) 在高等教育领域拥有多种应用,从而彻底改变了机构运营并增强了整体学习体验。人工智能 (AI) 领域已经对社会的各个方面产生了重大影响。人们可能没有意识到他们的智能手机可能配备了人工智能 (AI) 引擎。例如,这些引擎专门设计用于增强面部识别所涉及的计算过程,从而允许用户访问他们的手机。或者,它们可用于识别相机捕捉到的场景,使设备能够调整曝光设置以提高图像质量。人工智能 (AI) 正越来越多地应用于各个领域,包括商业、医疗保健、游戏、基于个人资料预测累犯的司法系统、自动驾驶汽车的开发以及无需人工干预即可独立寻找和摧毁的全自动武器的制造。高等教育领域当然不能免受人工智能的普遍影响,围绕这一现象的讨论似乎比以往任何时候都更加突出。每年都会推出包括人工智能 (AI) 在内的新型电子学习系统,从而带来大量资金投入,并吸引众多科学贡献者进入人工智能领域。每一项新兴技术都会带来一定的优势和重大风险。立法对技术问题的回应往往需要大量时间。