就目前的人工智能技术而言,人工智能造成的危害仅限于我们直接控制的权力。正如 [59] 中所说,“对于狭义人工智能,安全故障的重要性与一般网络安全同等重要,但对于 AGI 而言,情况则截然不同。” 尽管 AGI(通用人工智能)仍然遥不可及,但人工智能灾难的性质在过去二十年中已经发生了变化。自动化系统现在不仅会孤立地发生故障,而且还会实时与人类和彼此交互。这种转变使传统的系统分析更加困难,因为人工智能比以前的软件更具复杂性和自主性。针对此问题,我们分析了历史上与复杂控制系统相关的风险是如何管理的,以及当代人工智能故障的模式以及任何人工智能系统的运行会产生哪些类型的风险。我们基于传统系统分析和开放系统理论以及人工智能安全原则,提出了一个分析人工智能系统的框架,以便在它们无法理解它们如何改变其所嵌入系统的风险格局之前对其进行分析。最后,我们根据人工智能系统的属性提出了应采取的建议措施。我们给出了来自不同领域的几个案例研究,作为如何使用该框架和解释其结果的示例。