摘要 近年来人们对人工智能 (AI) 的热情主要归功于深度学习的进步。深度学习方法非常准确,但也不够透明,这限制了它们在安全关键应用中的潜在用途。为了获得信任和问责,机器学习算法的设计者和操作者必须能够向用户、监管者和公民解释算法的内部工作原理、结果和失败的原因。本文的独创性在于结合可解释性的技术、法律和经济方面,开发一个框架来定义给定上下文中“正确”的可解释性水平。我们提出了三个逻辑步骤:首先,定义主要的背景因素,例如解释的受众是谁、操作背景、系统可能造成的危害程度以及法律/监管框架。此步骤将有助于描述解释的操作和法律需求,以及相应的社会效益。第二,检查可用的技术工具,包括事后方法(输入扰动、显着图......)和混合AI方法。第三,作为前两个步骤的功能,选择正确的全局和局部解释输出级别,同时考虑所涉及的成本。我们确定了七种成本,并强调只有当总社会效益超过成本时,解释才具有社会用途。
摘要 大数据的出现与人工智能技术的发展相结合,为自主和持续的决策支持提供了新的机会。虽然最初的研究已经开始探索人类道德如何为未来人工智能应用的决策提供信息,但这些方法通常认为人类道德是静态的和不可改变的。在这项工作中,我们从功利主义的角度初步探索了环境对人类道德的影响。通过一项在线叙事交通研究,参与者被引导到一个积极的故事、一个消极的故事或一个控制条件(N = 82),我们收集了参与者对必须在不断变化的环境中处理道德判断的技术的看法。基于对参与者反应的深入定性分析,我们将参与者的看法与公平性、问责制和透明度方面的相关工作进行对比。我们的工作强调了情境道德对人工智能的重要性,并通过基于 FACT(公平性、问责制、背景和透明度)的视角确定了未来工作的机会。
本综述探讨了人工智能(以下简称 AI)如何通过情境学习文献中的见解重塑教育。目的是批判性地审视情境学习的机遇和挑战,以及 AI 如何在克服障碍的同时增强优势。使用 PRISMA 方法的系统综述分析了 30 年来同行评审期刊上的 60 篇文章。提取了与情境学习相关的关键概念,并进行了定性和定量分析。研究结果确定了主要障碍:传统学校系统的单向被动学习;主流教育方法专注于预先确定的结果;教师缺乏背景知识。AI 提出的解决方案包括针对学生不断变化的需求量身定制的自适应系统;真实场景中的智能辅导;管理任务的自动化;以及数据驱动的教师支持。如果实施得当,人工智能有可能通过提高个性化、互动性和现实世界联系来增强情境学习。这有望实现更有效、更适应性强的教育 - 但人类指导对于道德基础仍然至关重要。这篇评论为教师、研究人员和政策制定者提供了宝贵的见解,让他们了解如何将人工智能与情境学习相结合,让教育在互联互通的世界中保持相关性。
摘要 近年来人们对人工智能 (AI) 的热情主要归功于深度学习的进步。深度学习方法非常准确,但也不太透明,这限制了它们在安全关键型应用中的潜在应用。为了获得信任和问责,机器学习算法的设计者和操作者必须能够向用户、监管者和公民解释算法的内部工作原理、结果以及失败的原因。本文的独创性在于结合可解释性的技术、法律和经济方面,开发一个框架来定义给定环境下可解释性的“正确”水平。我们提出了三个逻辑步骤:首先,定义主要的背景因素,例如解释的受众是谁、操作背景、系统可能造成的危害程度以及法律/监管框架。此步骤将有助于描述解释的操作和法律需求,以及相应的社会效益。第二步,检查可用的技术工具,包括事后方法(输入扰动、显著性图……)和混合 AI 方法。第三步,根据前两个步骤,选择正确的全局和局部解释输出级别,同时考虑所涉及的成本。我们确定了七种成本,并强调只有当总社会效益超过成本时,解释才具有社会意义。
量子概率论与经典概率论之间的相互关系是一个非常复杂的基础问题,涉及解释、数学和哲学问题。该领域的研究以观点、意见和数学形式主义的多样性为特点(例如[1–24])。我们注意到,一般来说,量子力学(QM)的特点是具有多样性的解释。我个人的理解是,量子概率是一种概率更新机制,类似于经典贝叶斯推理[25–34]。与后者不同,量子概率推理不是基于条件概率的贝叶斯公式。量子概率论是一种概率推理理论,具有由投影或量子工具给出的一类特殊的概率更新变换。创建一个涵盖经典和量子概率的通用概率框架是很自然的。这种概括可以带来全球全景,因为从山顶可以欣赏整个城市的全景,并通过这个全景,将原本看起来完全分离的区域连接起来。这样,就更容易发现小区规划和建筑结构的相似点和不同点。作为概率更新的可能机器之一,量子概率形式主义将失去其神秘性。
严重的环境紧急情况和灾难需要多组织协作,每个响应机构在紧急行动中都有自己的职责和特定角色。但是,响应机构之间不同的运营系统、文化和规范可能会妨碍这种协作和共享态势感知 (SA) 的形成。SA 会影响单个响应机构如何理解情况,因此构成了紧急情况和灾难管理决策的基础。本文的前提是,共享 SA 的形成是提高应对灾难准备的关键。通过对如何实施灾难管理达成共识,可以促进有效的形成。我们制定了一个协议来分析共享 SA 的创建及其对多代理灾难模拟期间成功的运营决策的重要性。作为起点,我们基于文献综述构建了一个系统框架来表示急性运营决策过程,特别描述了共享 SA 创建作为该过程的一部分所起的作用。基于该框架,我们随后制定了一个协议,用于监测共享 SA 的形成和分析其大小,以及它如何与决策过程以及演习期间的行动执行相关联。我们建议该协议可应用于各种紧急情况和灾难准备环境,以支持多代理和多组织培训以及未来危机应对实践的发展和协调。
数字孪生需要在运行过程中处理大量数据,以便在与其相关的物理孪生的整个生命周期内完成特定任务。处理数据的一个重要特征是识别对基础数据和从数据中产生的处理信息的信任。信任,正如这里所定义的,通常会从几个贡献来源建立起来。虽然信任既有定量的也有定性的,但本文通过水晶盒建模中可用的算法过程的透明度,重点关注信任的定性方面。水晶盒的概念也得到了扩展,包括“水晶盒工作流程”的概念。关键思想是,为了帮助数字孪生用户解释通过数字孪生界面呈现的结果,需要将信息情境化。这项工作展示了一个示例,说明如何对一个按比例缩放的三层结构的振动测试(特别是模态测试)示例进行此操作。通过“配置文件”将信息情境化,这些配置文件将整理和扩充处理后的信息。具体而言,生成合成结果是为了扩充一组有限的物理记录数据,然后使用这些合成结果帮助用户将物理记录数据情境化。使用名为 DTOP-C 的开源数字孪生代码显示实施结果
摘要目的:绘制巴西严格意义上的护理研究生课程中开发的护理理论。方法:文献计量学研究,于 2023 年 10 月在高等教育人员改进协调论文和学位论文门户网站上进行。使用了受控描述符“护理理论”和“护理模型”以及不受控制的“理论”和“中程理论”。对选定的研究进行分类分析,分析由拥有博士学位和护理理论研究专业知识的研究作者进行。结果:共绘制了 39 种护理理论,其中以中层理论的发展为主(79.5%),重点关注护理诊断概念和使用理论因果效度的理论方法策略。结论:该研究确定了巴西发展的护理理论,认识到了趋势、发展战略、学科感兴趣的理论对象以及在巴西环境中实际应用所需的投资。描述符:护理理论;护理模型;健康研究生课程;护理研究;文献计量学。
空间态势感知 (SSA),有时也称为空间领域感知 (SDA),可以理解为对特定区域内所有物体的全面了解的总结性术语,而不必与这些物体直接通信。空间交通管理 (STM) 作为一个外推术语,正在应用 SSA 知识来管理该区域以实现可持续利用。这三个术语传统上都适用于近地空间领域,通常从低地球轨道 (LEO) 扩展到超地球静止轨道 (hyper-GEO),感兴趣的物体是轨道运动中的物体,其主要天体动力学项是地球的中心引力势。空间交通管理 (STM) 旨在设计解决方案、方法和协议,以便以一种可持续利用空间的方式管理空间整流罩。因此,SSA 和 SDA 为 STM 提供了知识基础,这些领域紧密交织在一起。
摘要 可解释人工智能 (XAI) 是一个新兴的多学科研究领域,旨在开发使 AI 系统更易于解释或解读的方法和工具。XAI 研究人员越来越多地认识到可解释性是一种对环境、受众和目的敏感的现象,而不是一个可以直接测量和优化的单一明确定义的属性。然而,由于目前没有可解释性的总体定义,这给这个多学科领域内的许多不同研究人员带来了沟通不畅的风险。这是我们在本文中试图解决的问题。我们概述了一个称为解释实用主义的框架,我们认为它有两个吸引人的特点。首先,它允许我们在明确的环境、受众和目的相关术语中概念化可解释性,同时保留可解释性的统一底层定义。其次,它使任何可能支撑关于寻求解释目的的可解释性相互冲突的主张的规范性分歧变得显而易见。第三,它使我们能够区分 AI 可解释性的几个维度。我们通过将这个框架应用于一个案例研究来说明这个框架,该案例研究涉及一个机器学习模型,用于预测患有意识障碍的患者是否有可能恢复意识。