不受控制的链式反应危险构成了与核潜艇和乏核燃料相关的潜在严重风险。此类意外情况可能会在大面积范围内造成相当大的污染 - 范围(尽管强度可能不同)类似于切尔诺贝利事件对芬诺-斯堪的亚的影响或其他核电站意外泄漏案例研究中的沉积模式。因此,这种风险与卸载燃料的运行和退役潜艇以及储存乏燃料的储存设施、船舶和铁路集装箱有关。对于其中一些情况,仍有待确定是否或在何种情况下会实现事件链中每个环节导致临界状态的必要物理条件。然而,对于某些情况,真实事件证明了普遍存在的风险。
APL 协调交战模拟 (ACES) 的创建旨在评估和开发分布式武器协调方法,以支持海军、联合和盟军区域和战区战术弹道导弹防御 (TBMD)、陆上巡航导弹防御 (OCMD) 以及自卫和区域防御防空战 (AAW)。对实现部队级协调的不同分布式武器协调方法的有效性进行分析时,必须考虑影响整个探测到交战事件链中过程结果的关键因素。在作战情况下,这些过程从根本上依赖于可用的轨迹信息。对于给定的单位,轨迹信息可以在本地生成,也可以通过公共网络从其他单位获得。因此,在单个平台级别生成真实的空中图像表示一直是 ACES 开发的主要目标。
分析技术基于因果模型,该模型描述了系统各部件和组件在从初始故障或干扰到不可接受的后果的意外事件链中所起的作用。直到最近,包括人为错误在内的大多数分析工作都花在了验证现有传统设计的运行过程工厂在人机界面方面的安全性上,例如,在核电站 (WASH 1400) 上使用 Therp (Swain 1976)。这种情况导致了对错误的定义和错误率的量化,这些定义和量化涉及外部人为任务的结构和元素,而不是人的功能和能力及其局限性。通常,当前的方法基于对人为错误的分类,分类依据是任务元素或步骤的错误排序或执行;即,分析方法基于任务模型,而不是执行任务的人的模型。然后通过“绩效塑造因素”考虑人类的功能和特征(Swain 1976, 1980)。
飞行中的不良事件通常与多种因素的组合有关,这些因素会使情况成倍复杂化。最终导致事故的因素与机组人员活动(人为因素 - HF)、飞机的功能效率(技术因素 - TF)和环境条件(环境因素 - EF)有关。因此,不良事件在大多数情况下是一个复杂事件,是具有因果关系的连续事件链中的最后一个元素。追踪不良事件发展的顺序,我们可以区分以下几类原因:主要原因、直接原因和伴随原因。主要原因为在特定情况下出现不良事件创造了潜在机会。直接原因和伴随原因为将这种机会变成现实创造了实际条件。因此,直接原因是导致不良事件的原因。通常它是主要原因的结果 [4],[5]。
麻省理工学院的 Nancy Leveson 开发的因果关系模型。该模型启发了几种新方法,从事故分析(如基于 STAMP (CAST) 的因果分析)到危险分析(如系统理论过程分析 (STPA))。与基于事件链因果关系模型且通常仅识别组件故障的传统方法不同,STPA 可用于识别设计缺陷、组件交互以及导致事故的人为因素。尽管 STPA 比传统方法对人为错误采取了更为周到的方法(要求分析师考虑系统条件如何导致“错误”),但它并未提供广泛的指导来理解人类行为方式的原因。之前已经做出努力将此类指导添加到 STPA,但尚未出现一种使用 STPA 检查人类行为的广泛接受且易于使用的方法。
分析技术以因果模型为基础,该模型描述系统零部件在从初始故障或扰动到不可接受的后果的意外事件链中所起的作用。直到最近,大多数包括人为错误的分析工作都用于验证现有运行中传统设计的过程工厂在人机界面方面的安全性,例如,Therp (Swain 1976) 在核电站 (WASH 1400) 上的使用。这种情况导致人们从外部人为任务的结构和要素而不是人的功能和能力及其局限性的角度来定义错误和量化错误率。通常,当前的方法是根据任务元素或步骤的错误排序或执行对人为错误进行分类;即,分析方法基于任务模型而不是执行任务的人的模型。然后通过“绩效塑造因素” (Swain 1976, 1980) 考虑人类的功能和特征。
摘要 人工智能 (AI) 系统越来越普遍:物联网、车载智能设备、机器人和虚拟助手,它们的大规模采用使得解释其行为成为必要,例如向受其决策影响的用户或需要确保其功能的开发人员解释其行为。一方面,这需要获得导致系统以某种方式运行(例如,做出特定决策)的事件链的准确表示。另一方面,需要根据用户的需求和期望将这种因果链传达给他们。在解释传递的这个阶段,允许用户和模型之间的交互有可能提高模型质量和用户体验。XAINES 项目通过针对特定受众需求的叙述来研究对 AI 系统的解释,重点关注实现成功解释的两个重要方面:生成和选择适当的解释内容,即解释中要包含的信息,并以适当的方式将这些信息传递给用户。在本文中,我们介绍了该项目的路线图,以实现用叙述来解释人工智能。
类比推理在植物认知领域占据主导地位。例如,S&C 认为,由于根可以检测并避免高盐度水平(Hodge,2009;Zhang,2008),这种(形态学)回避反应 (1) 与 Tomasello (2020) 在人类和非人类动物中表现出的“go/no-go”全局抑制 (2) 相当。但通常在人类行为背景下讨论的 (2) 涉及抑制对一种刺激的注意力,以关注和响应另一种刺激。尽管在 (1) 和 (2) 中发生了类似的事件链,但可以设计一个缺乏感知能力(即什么都感觉不到)的简单电路来执行这种决策。当植物被视为通信系统时,也会出现类似的疑问。尽管它们已经进化出丰富的挥发性化学物质库,但这是它们与病原体和食草动物进行军备竞赛的共同进化结果(Shoonhoven 等人,2000 年)。这一切都可以通过香农的信息理论(Zu et al., 2005; Solé 2005)来解决,而不需要类似语言的复杂交流结构。
由于计算能力的显著进步和优化算法(尤其是机器学习 (ML))的改进,人工智能 (AI) 的自动决策得到了广泛采用。复杂的 ML 模型提供了良好的预测准确性;然而,ML 模型的不透明性并不能为它们在贷款决策自动化中的应用提供足够的保证。本文提出了一个可解释的人工智能决策支持系统,通过信念规则库 (BRB) 实现贷款承保流程的自动化。该系统可以容纳人类知识,也可以通过监督学习从历史数据中学习。BRB 的层次结构可以容纳事实规则和启发式规则。该系统可以通过激活规则的重要性和规则中先行属性的贡献来解释导致贷款申请决策的事件链。抵押贷款承保自动化的商业案例研究表明,BRB 系统可以在准确性和可解释性之间提供良好的权衡。规则激活产生的文本解释可以作为拒绝贷款的理由。申请的决策过程可以通过规则在提供决策中的重要性及其先行属性的贡献来理解。
犯罪现场重建 (CSR) 是刑事调查的重要组成部分,需要仔细检查可用数据以查明导致犯罪的事件链。自人工智能 (AI) 出现以来,对使用基于 AI 的技术进行犯罪现场重建的需求不断增加。我们比较了基于 AI 的犯罪现场重建系统的发展、缺点和潜在应用。我们发现机器学习模型、计算机视觉模型、自然语言处理模型、深度学习模型和图形分析模型在犯罪现场重建方面都取得了显著进展。然而,使用基于 AI 的技术也存在局限性,包括需要大量高质量数据、数据或算法中可能存在偏差以及结果的可解释性。为了克服这些限制,未来的研究应该侧重于开发更强大、更透明的基于 AI 的模型,这些模型集成了多种技术并对结果提供清晰的解释。在过去的几十年里,3D 建模一直是广泛研究的主题。总体而言,基于人工智能的技术有可能彻底改变犯罪现场重建,但需要进一步研究以优化其在刑事调查中的应用。这篇比较评论探讨了人工智能现在和未来在法医科学中的应用。