摘要 — 顺序建模在离线强化学习 (RL) 中表现出色,其中决策转换器 (DT) 是最显著的代表之一,取得了显著的成功。然而,RL 轨迹具有与传统序列(例如文本或音频)不同的独特属性:(1)局部相关性,其中 RL 中的下一个状态在理论上仅由基于马尔可夫决策过程 (MDP) 的当前状态和动作决定,以及 (2) 全局相关性,其中由于轨迹的时间连续性,每个步骤的特征都与长期历史信息相关。在本文中,我们提出了一种新颖的动作序列预测器,名为 Mamba Decision Maker (MambaDM),其中 Mamba 有望成为序列建模范式的有前途的替代方案,因为它可以有效地建模多尺度依赖关系。特别是,我们介绍了一种新颖的混合器模块,它可以熟练地提取和集成输入序列的全局和局部特征,从而有效地捕捉 RL 数据集中的相互关系。大量实验表明,MambaDM 在 Atari 和 OpenAI Gym 数据集上实现了最佳性能。此外,我们通过实证研究了 MambaDM 的扩展规律,发现增加模型大小不会带来性能提升,但将 MambaDM 的数据集大小扩大 2 倍可以在 Atari 数据集上获得高达 33.7% 的得分提升。本文深入探讨了 MambaDM 在 RL 领域的序列建模能力,为未来在稳健高效的决策系统方面的进步铺平了道路。
摘要。在决策系统中,算法追索权旨在确定最小成本的动作以改变个人的特征,从而获得预期的结果。这使个人有能力理解,质疑或改变对他们产生负面影响的决定。但是,由于系统环境和个人的敏感性以及量化单个功能的成本几乎是不可能的,同时考虑了多种标准情况。大多数当前的追索性机制都使用基于梯度的方法,这些方法假设成本函数是可区分的,通常不适用于现实世界中的情况,从而产生了损害各种标准的亚最佳解决方案。这些解决方案通常是棘手的,并且缺乏严格的理论基础,从而从可解释的AI(XAI)角度引起了人们对解释性,可靠性和透明度的关注。为了解决这些问题,这项工作提出了一个算法的求程框架,该框架处理了非不同和离散的多成本功能。通过将追索权作为多目标优化问题制定,并根据其重要性将权重分配给不同的会议室,我们的方法确定了帕累托最佳追索权建议。为了证明可伸缩性,我们结合了ϵ -NET的概念,证明了找到近似帕累托最佳作用的能力。实验显示了不同迹象和该方法在大图中的可扩展性之间的权衡。与当前的启发式实践相比,我们的方法提供了更强的理论基础,并更好地将追索权与现实世界的要求保持一致。
随着人工智能(AI)越来越嵌入医疗保健服务中,本章探讨了开发可靠和道德临床决策系统(CDSS)的关键方面。从从传统统计模型到复杂的机器学习方法的基本过渡开始,这项工作研究了严格的验证策略和绩效评估方法,包括模型校准和决策曲线分析的关键作用。本章强调,在医疗保健中创建值得信赖的AI系统不仅需要技术准确性。它需要仔细考虑公平,解释性和隐私。强调通过AI确保公平的医疗保健提供的挑战,讨论识别和减轻临床预测模型中偏见的方法。然后,本章将解释性挖掘为以人为中心的CDS的基石。此重点反映了这样的理解,即医疗保健专业人员不仅必须信任AI建议,而且还必须理解其基本推理。对医学AI系统隐私漏洞的分析,从深度学习模型中的数据泄漏到针对模型解释的复杂攻击。本文探讨了隐私保护策略,例如差异隐私和联合学习,同时承认隐私保护和模型绩效之间的固有权衡。从技术验证到道德考虑,这种进步反映了开发AI系统的多方面挑战,这些系统可以无缝且可靠地整合到日常临床实践中,同时保持患者护理和数据保护的最高标准。
摘要 — 影响人类生活的决策越来越多地由自动决策算法做出或协助。这些算法中的许多处理个人数据以预测累犯、信用风险分析、使用人脸识别识别个人等。虽然这些算法可能提高效率和效力,但它们本质上并非没有偏见、不透明、缺乏可解释性、恶意等。鉴于这些算法的结果对个人和社会有重大影响,并且在部署后容易受到分析和争论,因此必须在部署前考虑这些问题。正式审计是确保算法符合适当问责标准的一种方式。这项工作基于对文献的广泛分析和专家焦点小组研究,提出了一个统一的系统问责基准框架,用于对基于人工智能的决策辅助系统进行正式审计。本研究还提出了系统卡作为呈现此类审计结果的记分卡。它由 56 项标准组成,组织在一个四乘四矩阵中,行侧重于 (i) 数据、(ii) 模型、(iii) 代码、(iv) 系统,列侧重于 (a) 开发、(b) 评估、(c) 缓解和 (d) 保证。提出的系统问责基准反映了问责系统的最新发展,可作为算法审计的清单,并为未来研究的后续工作铺平道路。索引词 — 算法问责、自动决策系统、人工智能、系统卡
摘要 法律裁决者和行政决策者做出的决策通常基于大量储存的经验,从中可以提取隐性的专业知识。这种专业知识可能是隐性的和不透明的,甚至对决策者自己来说也是如此,并且在将人工智能应用于法律领域的自动决策任务时会产生障碍,因为如果人工智能决策工具必须建立在领域专业知识的基础上,那么不透明性可能会激增。这引发了法律领域的特殊问题,这需要高度的问责制,从而需要透明度。这需要增强可解释性,这意味着各种利益相关者都需要了解算法背后的机制,以便提供解释。然而,一些人工智能变体(如深度学习)的“黑箱”性质仍未解决,因此许多机器决策仍然知之甚少。这篇调查论文基于法律和人工智能专家之间的独特跨学科合作,通过对相关研究论文进行系统调查,对可解释性范围进行了回顾,并对结果进行了分类。本文建立了一种新颖的分类法,将特定法律子领域中发挥作用的不同形式的法律推理与特定形式的算法决策联系起来。不同的类别展示了可解释人工智能 (XAI) 研究的不同维度。因此,该调查通过结合法律逻辑中的异质性,摆脱了先前单一的法律推理和决策方法:这一特征需要详细说明,在为法律领域设计人工智能驱动的决策系统时应予以考虑。因此,希望行政决策者、法院裁判员、研究人员和从业者能够对可解释性获得独特的见解,并利用该调查作为该领域进一步研究的基础。
这种全面的分析强调了增强学习的潜力(RL)通过检查其在各种学科中的技术和应用来改变智能决策系统。该研究对几种增强学习(RL)方法的优势和缺点进行了彻底的检查,例如Q学习,深Q-Networks(DQN),策略梯度方法和基于模型的RL。本文探讨了包括机器人技术,自主系统和医疗保健在内的多个领域中的RL应用程序,展示了其在处理复杂决策任务时的适应性。RL在医疗保健领域表现出了管理临床资源,识别慢性疾病和改善患者疗法的希望。机器人技术使用加固学习(RL)来创建自动导航和自适应运动技能。该研究强调了增强学习(RL)在管理高维状态空间,延迟奖励和无模型学习方面的优势,但它们还指出了某些缺点,包括样本效率低下和探索 - 开发折衷。本文强调了跨行业增强学习(RL)的灵活性和潜在影响,从而为从业者和学者提供了希望在智能系统中利用RL提供深刻信息的信息。在现实世界中,自适应决策的未来可能是由RL与其他AI方法的集成(例如深度学习和转移学习)的整合来塑造的,这可以进一步扩大其对越来越复杂的领域的适用性。关键字:加固学习,机器学习,人工智能,健康,机器人
2021 年 11 月 18 日 美国国家标准与技术研究所 (NIST) 美国商务部 100 Bureau Drive Gaithersburg, MD 20899 通过电子邮件:scientificfoundationreviews@nist.gov 回复:RFC 回复:NIST 内部报告 8351-DRAFT DNA 混合物解释:NIST 科学基金会审查 IEEE-USA 很高兴就上述“NIST 的 DNA 混合物解释征求意见:NIST 科学基金会审查 (8351-DRAFT,“审查”)”提交这些评论。IEEE-USA 代表美国约 150,000 名工程师、科学家和相关专业人员,其中许多人正在积极开展人工智能、软件工程、网络安全和高级计算以及其他基础和新兴技术的研究和开发。我们是 IEEE 的美国分部——IEEE 是世界上最大的技术专业人员组织,代表着全球 400,000 多名工程师、科学家和相关专业人员。IEEE 标准协会 (IEEE-SA) 是电力和能源、电信、生物医学和医疗保健、信息技术、交通运输以及信息保证产品和服务中使用的全球技术标准的领先开发者,正在开发技术标准和框架,以展示专业人士在设计、开发和部署人工智能和自主系统(以下统称为 AI 系统)时可以并且应该如何优先考虑道德考虑。1 值得注意的是,IEEE 正在制定 IEEE P3119 人工智能和自动决策系统采购标准,旨在满足政府工作人员、政策制定者和技术人员的需求,让他们就公众遇到的 AI 产品、服务和/或系统的社会技术考虑和影响做出有意义、负责和透明的选择。2
摘要基于预测的决策领域的隐含歧义涉及词典和决策概念之间的关系。该领域的许多文献都倾向于模糊两个概念之间的界限,并且通常只是指“公平的预测”。在本文中,我们指出,在尝试实施算法公平性时,这些概念的差异化是有帮助的。即使公平属性与使用的预测模型的特征有关,更恰当地称为“公平”或“不公平”的是决策系统,而不是预测模型。这是因为公平是关于由决定而不是由预测所产生的对人类生命的后果。在本文中,我们阐明了预测和决策概念之间的区别,并显示了这两个要素影响基于预测决策系统的最终公平属性的不同方式。以及从概念和实际角度讨论这种关系,我们提出了一个框架,以更好地理解和推理在基于预测的决策中建立公平性的概念逻辑。在我们的框架中,我们指定了不同的角色,即“预测模型”和“决策者”,以及每个人都为能够实现系统公平性所需的信息。我们的框架允许对角色的不同责任提出不同的责任,并讨论与道德和法律要求有关的一些见解。我们的贡献是双重的。首先,我们提供了一种新的观点,将重点从算法公平的抽象概念转移到了算法决策的具体背景依赖性的性质,在那里存在不同的参与者,可以实现不同的目标,并且可以独立行动。此外,我们还提供了一个概念框架,可以帮助在公平问题,确定职责并在现实世界中实施公平治理机制,以结构基于预测的决策问题。
计算机科学与工程系 1,2,3,4 SRM 科学技术学院,Vadapalani 钦奈,印度 摘要:脑中风是一种潜在的致命疾病,当大脑的血液供应突然被切断时就会发生。早期发现和预防对于改善患者的治疗效果至关重要,因为脑中风是全球残疾和死亡的主要原因。随着人工智能和机器学习的发展,人们对使用这些技术创建脑中风预测模型的兴趣日益浓厚。在本文中,我们提出了一种基于深度学习的脑中风预测方法。我们的策略基于卷积神经网络 (CNN) 和循环神经网络 (RNN) 的架构。RNN 分析患者的人口统计信息、病史和测试结果,而 CNN 用于从计算机断层扫描 (CT) 或磁共振成像 (MRI) 扫描等医学图片中提取特征。该模型使用大量患者记录数据集进行训练,包括曾患和未患脑中风的患者。我们的结果表明,上述基于深度学习的策略可以成为早期发现和预防脑卒中的有用工具。医疗保健提供者可以通过识别脑卒中高风险人群,采取主动措施阻止疾病的发生。此外,我们的方法可以与临床决策系统相结合,为患者护理提供即时预测和建议。因此,我们的研究表明,深度学习方法在创建精确可靠的脑卒中预测模型方面具有潜力。未来的研究可能会考察模型预测的可解释性以及我们的模型在不同患者群体和数据源中的通用性 关键词:深度学习、CNN、RNN、早期中风检测、临床决策
司法系统中人工智能(AI)的整合(AI)为公正审判的基本权利带来了机会和挑战。本研究文章研究了AI技术和法律标准的交集,重点是法庭中的AI应用如何影响公平,透明度和正当程序的原则。该研究分析了各种司法管辖区的当前AI实施,包括风险评估工具,预测性警务和自动化决策系统。批判性地评估了人工智能在提高司法效率和一致性方面的潜在好处,同时强调了算法偏见,缺乏解释性和对人类判断的侵蚀的风险。本文提出了一个将AI集成到法律体系的框架,同时维护公正审判的权利。该框架涵盖了立法措施,道德准则和技术标准,以确保司法机构中的AI系统透明,负责和与人权原则保持一致。该研究借鉴了案例研究,法律先例和跨学科观点,以解决关键问题:如何利用AI来支持而不是取代司法决策?需要哪些保障措施来防止AI永久化或加剧法律体系中的现有偏见?如何在日益数字化和自动化的司法景观中维持公正审判的权利?本文通过概述了对司法系统中AI负责任发展和部署的未来研究方向和政策建议。调查结果表明,尽管AI有可能提高法律程序的效率和一致性,但必须仔细监管其执行,并不断监控以确保遵守公平审判标准。关键词:人工智能,公平审判,司法决策,算法偏见,法律伦理。