近年来,机器学习的公平性(ML),人工智能(AI)和算法决策系统已成为一个高度活跃的研发领域。迄今为止,与决策和公民社会背景隔离建立了减轻算法系统偏见和改善公平性的大多数措施和方法。许多当前的措施简单地定义了“公平”,意味着缩小性能差距或人口组之间的结果,同时保留了尽可能多的原始系统的准确性。这种复杂的社会法律概念的平等概念转换为公平措施的这种过于简单的翻译令人不安。许多当前的公平措施都遭受了公平和绩效退化的损失,或“降低” - 通过使每个团体变得更糟或使表现更好的群体降低到最差的水平来实现公平性。升级是决定仅根据绩效和结果群体之间的平等或差异来衡量公平性的症状,这些症状忽略了其他有关分配正义(例如,福利或优先级)的其他相关问题,这些问题更难量化和衡量。只有在绩效或结果的分布方面才能衡量公平性时,纠正措施同样只能针对这些商品之间的分布方式。我们将这种趋势称为“默认情况下严格的平等主义”。
裁决和规则制定的独特且互补的程序是二十世纪行政法的核心。正当程序要求机构向个人提供通知和申辩机会。通过公共规则制定,机构可以排除个人在裁决中可能提出的政策问题。一个系统允许有针对性的倡导;另一个系统则以广泛参与为特色。每种程序制度都弥补了另一种程序的规范限制。两者都依赖于明确的理由陈述。这些程序制度之间的二分法正在迅速过时。本世纪的自动化决策系统将个人裁决与规则制定相结合,同时不遵守任何一方的程序保障。自动化系统危及正当程序规范。由于缺乏有意义的通知,以及听证官倾向于假定计算机系统绝对正确,听证会的价值被贬低。Mathews v. Eldridge 成本效益分析无法比较破译计算机系统逻辑的高固定成本与纠正基于此逻辑做出的无数不准确决定的累积可变收益。自动化也挫败了参与式规则制定。代码,而不是规则,决定了裁决的结果。程序员在将既定规则嵌入代码时不可避免地会对其进行修改,而公众、民选官员和法院无法审查这些规则。上个世纪的程序无法弥补这些问责缺陷。一个新的技术正当程序概念对于证明 ∗ © Danielle Keats Citron 的正当程序至关重要。马里兰大学法学院法学助理教授。Richard Boldt、Maxwell Chibundu、John Henry Clippinger、Karen Czapanskiy、Lisa Fairfax、Jon Garfunkel、Mark Graber、Debbie Hellman、Bob Kaczorowski、Gene Koo、Dan Markel、Helen Norton、Frank Pasquale、Doc Searls、Jana Singer、Max Stearns、David Super、Michael Van Alstine 和 Greg Young 的评论极大地改善了本文。我感谢 Andy Bardwell、Val Greenfield、Ed Kahn、Jennifer Lang、Don McCubbrey、Nan Morehead、Melissa A. Rodgers 和 Ed Stevens,他们慷慨地与我分享了他们在自动决策系统方面的专业和实践知识。Jonathan Bliley、Pamela Bluh、Adam Coleman、Alice Johnson、Susan McCarty、Janet Sinder 和 Peter Suh 提供了出色的研究协助。我非常感谢 Karen Rothenberg 院长和马里兰大学法学院对这项研究的支持。我曾向哈佛大学法学院伯克曼互联网与社会研究中心、斯泰森法学院教职员工以及马里兰大学法学院青年教职员工研讨会提交过本文的早期版本,这些会议的讨论让我受益匪浅。我非常感谢《华盛顿大学法律评论》的编辑人员,特别是 Jess Feinberg、Ele Forbes、Laura Uberti、Matt Walczewski 和 Ben Warr,感谢他们对本文的宝贵贡献。
摘要 - 运动预测和成本评估是自主性自治决策系统中的重要组成部分。但是,现有方法通常忽略成本学习的重要性,而将其视为单独的模块。在这项研究中,我们采用了树结构的政策计划者,并为自我条件的预测和成本模型提出了一个不同的联合培训框架,从而直接改善了最终计划绩效。对于条件预测,我们引入了一个以查询为中心的变压器模型,该模型执行有效的自我条件运动预测。对于计划成本,我们提出了具有潜在互动功能的可学习的上下文感知成本功能,从而促进了可区分的联合学习。我们使用现实世界的NUPLAN数据集及其相关的计划测试平台验证了我们提出的方法。我们的框架不仅与最先进的计划方法匹配,而且在计划质量方面的其他基于学习的方法优于其他基于学习的方法,同时在运行时更有效地运行。我们表明,联合培训比对两个模块的单独培训的性能要好得多。此外,我们发现树结构化的策略规划表现优于传统的单阶段计划方法。代码可用:https://github.com/mczhi/dtpp。
学习参数共享与张量分解和稀疏Cemüyük,Mike Lasby,Mohamed Yassin,Utku Evci,Yani Ioannou Arxiv:2411.09816 11月14日,2024年11月14日,蒸馏后剩下什么?知识转移如何影响公平性和偏见,艾达·穆罕默德夏(Yani ioannou arXiv):2410.08407 10月10日,10月10日,2024年10月10日,可信赖的和负责人的AI,用于人体以人为中心的自主决策系统制定系统制造系统Farzaneh Dehghani,farzaneh dehghani,farzaneh dehghani,mahsa dibaji,mahsa dibaji,fibaji,fahim fiahim,fahim jean seyean liily niily dey and lily dey,克里斯托夫·布歇(Christophe Boucher),史蒂夫·德鲁(Steve Drew),莎拉·埃莱恩·伊顿(Sarah Elaine Eaton),理查德·弗雷恩(Richard Frayne),古里·金德(Gouri Ginde),阿什利·哈里斯(Ashley Harris),Yani Ioannou,凯瑟琳·勒贝尔(Catherine Lebel Zaman Wahid,Mark Ungrin,Marina Gavrilova,Mariana Bento Arxiv:2408.15550 9月2日,2024年,
抽象 - 犯罪预测和分析在增强公共安全和优化执法工作中起着至关重要的作用。这项研究探讨了基于深度学习的方法,整合复发性神经网络(RNN),卷积神经网络(CNN)和长期短期记忆(LSTM)网络,以进行有效的犯罪预测和分析。所提出的框架利用了RNN和LSTMS的时间优势以及CNN的空间特征提取能力来分析大规模犯罪数据集。rnns和LSTMS处理时间序列数据以预测未来的犯罪趋势,而CNNS进行地理空间分析以识别各个地区的犯罪分布模式。混合模型处理结构化数据(例如,日期,时间,位置)和非结构化数据(例如犯罪描述),以提高预测精度。实验结果证明了其检测犯罪热点,预测犯罪类别并发现隐藏趋势的能力,为执法和决策者提供了可行的见解。这项研究强调了深度学习在应对复杂,动态挑战(例如犯罪预测)中的潜力,促进了更智能和更安全的城市。未来的工作可以纳入实时数据流,并评估在决策系统中部署此类模型的道德考虑
2022 年 3 月 4 日 AI 研发 RFI 响应团队收件人:Faisal D'Souza NCO,2415 Eisenhower Avenue Alexandria, VA 22314 通过电子邮件:AI-RFI@nitrd.gov 回复:RFI 响应 – 国家人工智能研究与发展战略计划 IEEE-USA 很高兴提交这些建议,以响应 OSTP 对 2022 年国家人工智能研究与发展战略计划更新的评论请求。我们全力支持政府更新和制定全面的国家人工智能战略的努力。这提供了一个机会来更新现有的 2019 年战略,以反映和解决人工智能 (AI) 和自动决策系统 (ADS) 对我们社会实际的、现在更充分实现的影响。AI/ADS 的进步及其在生活、工作和政府各个领域的普及直接影响公民、国内和国家安全以及地缘政治秩序。作为当今社会存在的先决条件,我们都参与、互动并受制于 AI/ADS 流程、数据收集和分析以及这些系统的决策,这些系统通过政府和金融服务、医疗保健和教育等直接影响我们。这些过程及其影响中的许多在人类方面在很大程度上是不透明的,缺乏有意义的选择或控制。尽管存在这种现实,但美国缺乏全面而有凝聚力的联邦 AI/ADS 治理监管框架,并将受益于该框架。
摘要 - 可以解决任务分配问题的智能决策系统对于多机器人系统以协作和自动化的方式进行工业应用至关重要,例如使用移动机器人使用移动机器人,使用无人体表面工具进行的水力调查等仓库检查等。因此,本文旨在解决多代理自动移动系统的任务分配问题,以自主,智能地将多个任务分配给机器人机器人。这种问题通常被视为与成员机器人以下任务计划分离的独立决策过程。为了避免由脱钩引起的亚最佳分配,提出了一个端到端任务分配框架,以解决此组合优化问题,同时在优化过程中考虑了后续的任务计划。该问题被称为多人多epter travely Salesmen问题(MTSP)的特殊变体。提议的端到端任务分配框架采用了深厚的强化学习方法来代替以前工作中使用的手工启发式方法。所提出的框架具有加固学习代理的模块化设计,可以针对各种应用程序进行自定义。此外,提出了基于机器人操作系统2的实体机器人实现设置,以实现仿真到现实差距。执行了仓库检查任务,以验证拟议框架的训练结果。该框架已通过模拟和实体机器人测试与各种参数设置进行了交叉验证,其中适应性和性能得到了很好的证明。
人工智能的发展目标之一就是将人工智能深深扎根于基础科学,同时发展以脑为启发的人工智能平台,推动新的科学发现。这些挑战对于推动人工智能理论和应用技术的研究至关重要。本文提出了未来20年人工智能研究面临的重大挑战,包括:(i)在理解脑科学、神经科学、认知科学、心理学和数据科学的基础上,探索人脑的工作机制;(ii)人脑的电信号是如何传输的?脑神经电信号与人体活动的协调机制是什么?(iii)将脑机接口(BCI)和脑肌肉接口(BMI)技术深深扎根于对人类行为的科学研究; (iv)研究知识驱动的视觉常识推理(VCR),发展新型认知网络识别推理引擎(CNR);(v)发展高精度、多模态智能感知器;(vi)研究基于知识图谱(KG)的智能推理与快速决策系统。我们认为,人工智能前沿理论创新、知识驱动的常识推理建模方法、人工智能新算法和新技术的革命性创新与突破、发展负责任的人工智能应成为未来人工智能科学家的主要研究策略。关键词:类脑人工智能;脑机接口;认知科学;常识推理;知识图谱驱动推理;负责任的人工智能。
DOI 编号:10.36713/epra15747 摘要 人工智能 (AI) 已成为一种变革性技术,有可能彻底改变各个领域的决策。这篇研究文章探讨了人工智能在决策中的影响及其对个人、组织和社会的影响。本文首先概述了人工智能及其关键组成部分,例如机器学习和自然语言处理。然后讨论了人工智能在通过自动化任务、增强人类能力和提供数据驱动的洞察力来增强决策过程方面的作用。本文强调了人工智能在提高决策准确性、效率和可扩展性方面的好处,同时也承认了其实施所带来的挑战和风险。这些挑战包括道德考虑、人工智能算法中的偏见以及潜在的工作流失。本文进一步探讨了透明度、问责制和可解释性在人工智能决策系统中的重要性。此外,它还讨论了人机协作的作用以及跨学科方法的必要性,以确保在决策中负责任和合乎道德地部署人工智能。本文借鉴案例研究和实证研究,提供了人工智能如何改变金融、医疗保健和交通等各个领域的决策的具体例子。最后,本文讨论了未来的方向,并向政策制定者、组织和个人提出了建议,以充分利用人工智能在决策中的潜力,同时解决其伦理、社会和经济影响。关键词:人工智能、决策、机器学习、自动化、增强、伦理考量、偏见、透明度、人机协作、负责任的人工智能。
医学和医疗保健领域的人工智能系统正在被广泛探索用于预防、诊断、新药设计和后期护理。人工智能技术在医疗保健系统中的应用有望带来令人印象深刻的成果,例如均衡医疗保健、降低死亡率和人为错误、降低医疗成本以及减少对社会服务的依赖。鉴于世界卫生组织的“健康老龄化十年”,人工智能应用被设计为数字创新,以支持老年人的生活质量。然而,人工智能应用中不同类型的算法偏见、使用数字设备和平台的年龄歧视以及数字数据中的年龄偏见的证据表明,人工智能的使用可能会对老年人口产生歧视性影响,甚至造成伤害。本文探讨了医学和医疗保健系统中人工智能应用中的年龄偏见和年龄歧视问题,并试图确定该领域的主要挑战。它将通过讨论可能观察到人工智能对年龄不平等产生潜在负面影响的两个层面,反映人工智能应用放大现有健康不平等的潜力。首先,我们将解决算法和数字数据集(尤其是健康数据)中年龄偏见的技术层面。其次,我们将讨论医疗保健中使用的自动决策系统 (ADM) 对老年人口可能产生的不同结果。这些例子将展示人工智能系统如何在医疗保健和医学中创造新的年龄不平等结构和新的排斥维度,尽管只是部分展示。