随着飞机系统变得越来越自主,人机角色分配发生变化,新的故障模式出现。这就需要一种方法来识别日益自主的系统 (IAS) 的安全要求,以及一个框架和技术来验证和确认 IAS 是否满足其安全要求。我们使用机组资源管理技术来识别安全人机协作行为的要求和行为。我们提供了一种方法来验证 IAS 是否满足其要求。我们将该方法应用于城市空中交通案例研究,其中包括两种应急场景:不可靠的传感器和中止着陆。对于此案例研究,我们用 Soar 语言实现了一个 IAS 代理,它充当所选应急场景的副驾驶并执行起飞和着陆准备,而飞行员保留最终决策权。我们用架构分析和设计语言 (AADL) 开发了一个正式的人机团队架构模型,并在 AADL 的假设保证推理环境 (AGREE) 附件中正式化了操作员和 IAS 要求。我们根据 IAS 和操作员的要求正式验证了人机团队的安全要求。我们开发了一个从 Soar 到 nuXmv 模型检查语言的自动翻译器,并使用 nuXmv 正式验证了 IAS 代理是否满足其要求。我们分享了在此过程中发现的设计和要求错误以及我们学到的经验教训。
信息在分布式决策实体(包括飞机、地面基础设施和人类决策者)之间流动。自主机器或代理需要信息来支持其决策过程,就像人类一样。代理(机器和人类)之间交换的信息的完整性对于此类代理做出值得信赖的决策的能力至关重要。根据完整性较差的信息做出决策的代理可能会导致不确定和不理想的结果,从而导致对系统的不信任。Mayers 等人。指出“诚信与信任之间的关系涉及信任者对受托人遵守信任者认为可以接受的一套原则的看法。” [Mayers 等人,1995] 虽然 Mayers 等人。谈论的是人与人之间的信任关系,但在机器与机器和人与机器关系中的信息交换中也存在同样的关系。
* 约翰·切里中校 (美国海军陆战队) 是美国海军战争学院斯托克顿国际法中心副主任兼国际法军事教授,也是美国参加致命自主武器系统新兴技术政府专家组代表团的成员。杜沃德·约翰逊中校 (美国) 担任美国海军战争学院斯托克顿国际法中心国际法军事教授兼陆战法副主任。我们感谢皮特·佩德罗佐教授和斯托克顿国际法中心对本项目的协助。本文表达的观点为作者个人观点,不代表美国海军战争学院、海军部、国防部或美国政府任何部门的观点。
2004 年,在美国,飞行员失误被列为 78.6% 的致命通用航空事故的主要原因,也是 75.5% 的通用航空事故的主要原因。对于定期航空运输,飞行员失误通常占全球已知原因事故的一半以上。飞行员总失误 所有三种飞行员失误的总和(黄色)。如果有多个原因,则使用最主要的原因。其他人为失误 包括空中交通管制员失误、飞机装载不当、燃油污染和维护程序不当。