*** 圣何塞州立大学/NASA 艾姆斯研究中心 “归根结底,冒险是几乎所有事故的根源。但要找到那些冒险的人并不总是那么容易;他们常常与冒险的人混淆。”(Wagenaar 和 Keren,1986)摘要:新自动化系统的设计人员通常会进行人为可靠性分析,以解释可能导致系统风险的潜在人为错误。在航空业,美国国家运输安全委员会 (1994) 发现事故中第二大常见错误类型是战术决策错误。提高飞行安全性的努力经常涉及对机组人员进行有效决策的培训。在开展此类培训时,一个显而易见的事实是,决策在很大程度上取决于机组人员对环境中各种威胁所带来的风险的认知。本文讨论了两个对提高航空决策质量至关重要的问题。(1) 机组人员如何看待与航空决策相关的风险?(2) 风险认知如何影响机组人员的决策过程?本文将介绍解决这些问题的研究结果,以及对改善机组人员决策的影响。版权所有 2002 IFAC。关键词:决策、人为错误、风险、社会技术系统、安全分析、系统设计、人为可靠性、不确定性、小组工作、飞机运营 1。简介 在设计新的自动化系统时,工程师总是关注评估潜在风险,以确定零部件随时间发生故障的可能性。根据这些评估,他们寻求减轻这些潜在风险的方法。一项更为困难的任务是将人类操作员的作用考虑在内,即使风险评估旨在预测人为错误的可能性。通常,人为可靠性分析会产生一个概率,该概率会被输入到更广泛的方程中,但这些风险估计通常基于专家判断,而不是实际经验。此外,这些努力对于理解人为错误发生的方式和原因几乎没有提供指导,也没有