识别局部和近似主导动态系统行为的过程,使理解和建模非线性微分动态系统取得了重大进展。主导过程识别的传统方法涉及零碎和临时(非严格、非正式)缩放分析,以识别控制方程项的主导平衡并描绘每个主导平衡的时空边界(空间和/或时间边界)。我们首次提出了一个客观的全局度量,以衡量主导平衡与观测值的拟合度,这对于自动化来说是理想的,而且以前是未定义的。此外,我们以优化问题的形式提出了主导平衡识别问题的正式定义。我们表明,优化可以通过各种机器学习算法执行,从而实现主导平衡的自动识别。我们的方法与算法无关,它消除了对专家知识的依赖,可以识别事先不知道的主导平衡。
成功使用预测涉及预测未来系统行为,以保持系统可用性并降低维护和维修成本。美国国家标准与技术研究所最近的研究表明,预测和健康管理领域对于在当今的制造环境中保持竞争力至关重要。虽然基于预测的维护涉及许多传统的以运筹学为中心的挑战,例如信息可用性有限和对计算效率的担忧,但作者在本文中认为,预测和健康管理领域仍处于萌芽阶段,也可以从考虑软运筹学技术中受益匪浅。具体来说,作者建议使用定性问题结构化技术来帮助理解和确定问题范围。本文概述了这些软方法,并讨论和演示了制造商如何使用它们。将问题结构化方法与传统运筹学技术相结合的方法将有助于加速预测领域的发展。
功能共振分析方法 (FRAM) 的开发受到人们认识到从根本上确定性和概率性方法在理解复杂系统行为方面的局限性的推动。与弹性工程的原则一致,近年来,FRAM 在科学方面得到了逐步发展,并越来越多地被工业环境采用,据报道取得了成功的结果。然而,目前缺乏针对该方法的广泛文献综述。基于这些前提,本文旨在总结所有可用的关于 FRAM 的英文出版研究。通过基于 PRISMA 审查技术的协议审查了来自多个科学存储库的 1700 多份文件。本文旨在揭示 FRAM 研究的一些特点,包括方法的应用和对其发展做出贡献的作者。系统分析从方法论方面、应用领域以及定性和定量方面的增强方面探讨了该方法,并提出了未来潜在的研究方向。
当然,737 MAX 调查结果尚未公布,近期发生的许多事故和事件表明事故原因发生了变化。核心主题是,空中运营的复杂性不断增加,引入了新的系统行为,而这些行为并不总是可以通过设计来预测和预防的。因此,维护弹性航空运输系统需要认知灵活性更高、适应性更强的机组人员。然而,这些新的高阶能力反过来会受到疲劳和惊吓/意外因素的更强烈影响,这解释了这两种现象受到更多关注的原因。此外,该行业给所有三个领域都带来了压力:飞行员需求导致培训工作减少,由于昼夜节律不规律和工作时间延长导致疲劳增加,更可靠的系统导致自动化自满,从而加剧了惊吓和意外的可能性。
政策解释是描述自主系统行为的过程,在有效地将代理商的决策理由与人类合作者联系起来,对于安全的现实世界部署至关重要。在有效的人类机器人团队中更为至关重要,良好的沟通允许团队通过在团队内实现价值一致性在不确定的情况下成功地适应和进步。本论文提出的提议是通过开发以人为以人为本的可解释的AI(XAI)技术来改善人机团队的,该技术使自主代理人能够通过多种方式来传达其cap骨和局限性,并教学和实现人类团队的行为作为决策Sys-tems-tems-tems-tems-tems-tems-tems-Tems和Manders belds buits ind buits int y hiri systyst in hri hri hri hri hri hi ri hri hi ri hi ri hi ri。
ARIA(评估人工智能的风险和影响)是一项 NIST 评估驱动的研究计划,旨在开发能够解释人工智能在现实世界中的风险和影响的测量方法。该计划建立了一个实验环境,以收集有关人们在受控的现实条件下使用人工智能时会发生什么的证据。与当前依赖概率和预测的方法相比,ARIA 将能够直接观察人工智能系统行为及其对用户的潜在影响。ARIA 将人与人工智能应用程序配对,在围绕特定人工智能风险设计的基于场景的交互中,并研究结果。来自世界各地的申请提交给 NIST,并根据风险是否在场景中实现以及由此产生的影响的大小和程度进行评估。参与团队将了解他们的应用程序是否可以在测试环境的不同上下文中保持功能。
电子设备的尺寸正在接近原子大小,这迫使人们制定新的指导方针来应对 22 纳米以下设计的挑战。随着芯片制造深入纳米领域,工艺变异缓解和辐射硬度成为相关的可靠性要求。受工艺变异影响的集成电路可能无法满足某些性能或功率标准,从而导致参数产量损失并需要重新设计几个步骤 [1]。传统上,软错误 (SE) 是由来自太空或地面辐射的高能粒子与硅之间的相互作用引起的 [2]。然而,技术缩放引入了电荷共享现象和脉冲猝灭 [3]。此外,工艺变异会改变线性能量传输 (LET),从而引发软错误。其后果是暂时的数据丢失,甚至在地面层面也会导致系统行为出现严重故障。
政策解释是描述自治系统行为的过程,在有效地将代理商的决策理由与人类合作者联系起来,对安全现实世界的部署至关重要。在有效的人类机器人团队中更为至关重要,良好的沟通允许团队通过在团队内实现价值一致性在不确定的情况下成功地适应和进步。本论文提出的提议是通过开发以人为以人为本的可解释的AI(XAI)技术来改善人机团队的,该技术使自主代理人能够通过多种方式来传达其cap骨和局限性,并教学和实现人类团队的行为作为决策Sys-tems-tems-tems-tems-tems-tems-tems-Tems和Manders belds buits ind buits int y hiri systyst in hri hri hri hri hri hi ri hri hi ri hi ri hi ri。
简介 近年来,人们对如何使人工智能系统对人类更加“可解释”或“可解释”的问题产生了浓厚的兴趣。然而,这些术语在文献中用于指代许多不同的目标 [10, 17, 19]。例如,可解释性方面的工作有时侧重于增强人类在心理上模拟和预测人工智能系统行为的能力 [16, 17, 22] 或评估反事实的能力 [27]。其他工作则探讨了帮助人类分解模型、理解其组成部分(例如参数)以及这些部分如何组合在一起的方法 [17]。从以人为本的角度来看,这些设计目标可以理解为支持不同的人类能力,每种能力在不同的现实世界环境中可能或多或少都有用。例如,在调试 AI 系统时,分解模型可能很有用。在决策环境中,识别可能影响模型可靠性的情况的能力可能更有帮助 [11, 20]。
通过授予对决定系统行为的相关参数的交互式操作,还可以实现对系统的可靠用户控制 [19]。在 HCAI 愿景中,用户控制和系统自主性并不被视为相互对立,而是在设计对人类有益的智能系统时需要充分校准的两个维度 [21]。应该让用户能够利用 AI 算法的强大功能,但也不能忽视用户作为领域专家所拥有的知识的重要性。例如,在 [2] 中介绍了一种基于 ML 的工具,用于从过去的患者那里直观地检索医学图像(来自活检的组织)。该工具支持对新患者的医疗决策,使医生能够即时应对搜索算法,并传达在不同情况下哪些类型的相似性最重要。人与系统之间的这种交互决定了逐步细化,从而增加了所发现图像的诊断效用以及用户对算法的信任。