摘要。组织,尤其是那些将安全性和可靠性视为重中之重的组织,会制定例行程序来防止发生故障。但即使是高度可靠的组织也无法免受灾难的影响,长时间的安全运行也会偶尔发生灾难。安全科学学者将此称为“几乎完全安全系统的悖论”,指出在正常条件下非常安全的系统在异常条件下可能会变得脆弱。在本文中,我们通过对法航 447 航班失事的分析,解释、发展和应用“组织限制”的概念来解决这一难题。我们表明,最初相对较小的限制违规会引发一系列人为和技术限制违规,并带来灾难性的后果。我们专注于驾驶舱自动化,认为使系统安全和可预测的相同措施可能会引入认知限制,随着时间的推移,这些限制会抑制或削弱相关参与者的干扰处理能力。我们还注意到系统设计过程中的认知限制使得很难预见复杂的交互。我们讨论了我们的研究结果对航空以外领域的可预测性和控制的影响,以及解决这些问题的方法。
主要关键词