2009 年至 2018 年,小型卫星市场经历了 23% 的复合年增长率 (CAGR)。预计 2019 年至 2024 年间将实现更大的扩张。
. : • 安全关键系统中广泛引用的与软件相关的事故涉及一台名为 Therac-25 的计算机化放射治疗机。1985 年 6 月至 1987 年 1 月之间,已知发生了六起事故,涉及 Therac-25 的大量过量用药 - 导致死亡和严重受伤。它们被描述为 35 年医疗加速器历史上最严重的一系列辐射事故。本文的信息取自公开文件,我们对过量用药所涉及的因素以及用户、制造商以及美国和加拿大政府处理这些事件的尝试进行了详细的事故调查。我们的目标是帮助其他人从这次经历中吸取教训,而不是批评设备制造商或任何其他人。所犯的错误并非该制造商独有,不幸的是,在其他安全关键系统中也相当常见。正如美国食品药品管理局 (FDA) 的弗兰克·休斯顿 (Frank Houston) 所说:“大量生命攸关系统的软件来自小公司,尤其是医疗设备行业;这些公司属于那些抵制或不了解系统安全或软件工程原则的公司。”2 此外,这些问题并不局限于医疗行业。人们仍然普遍认为,任何优秀的工程师都可以开发软件,无论他或她是否接受过最先进的软件工程程序培训。
无人机上没有飞行员,这意味着机长 (PIC) 无法直接感知飞机的状况、轨迹和周围空域。依靠射频 (RF) 频谱和地面控制站与飞机之间的持续连接来安全运行,这意味着 UAS 飞行员对飞机的控制可能会受到有人驾驶飞机所没有的干扰;不同类型的无人机与其他飞机分离的能力各不相同,有时甚至极其有限(这意味着,在使用其他方式遵守“看见并避开”规则的情况下,按照目前制定的“目视飞行规则”进行操作并不总是可行的);偶尔使用新奇和奇特的材料进行推进或飞机回收,这意味着涉及存在此类材料的系统的事故现场可能会对急救人员和航空安全调查人员都造成意想不到的危险。
本文件为州、地方、部落和领土官员提供信息和资源,以提高对危险材料事故的恢复能力。恢复能力是应急管理的支柱。国家在不受损失的情况下抵御风暴和灾难的能力大大降低了我们的风险。2018 年,通过威胁和危害识别和风险评估 (THIRA) 流程和利益相关者准备情况审查 (SPR),50% 的州和领土以及 40% 或部落参与者将化学和放射性危险材料泄漏视为令人担忧的危害。这是受访者发现的最常见的技术危害;27% 的人认为放射性危险材料是第二大令人担忧的技术危害。1 本文件汇编了 FEMA 和其他联邦及整个社区合作伙伴开发的现有资源和培训信息。旨在提供基本的高级指导,并从广泛接受的权威来源中确定有关危险材料事故的额外资源和培训。本指南概述了以下内容:
计算机越来越多地被引入到安全关键系统中,因此也引发了事故。在安全关键系统中,一些最广泛引用的与软件相关的事故涉及一台名为 Therac-25 的计算机化放射治疗机。1985 年 6 月至 1987 年 1 月期间,已知发生了六起事故,涉及 Therac-25 的大量过量用药,导致死亡和严重受伤。它们被描述为 35 年医疗加速器历史上最严重的一系列辐射事故。’本文的信息取自公开文件,我们对过量用药的因素以及用户、制造商以及美国和加拿大政府为应对这些事件所做的努力进行了详细的事故调查。我们的目标是帮助其他人从这次经历中吸取教训,而不是批评设备制造商或任何其他人。所犯的错误并非该制造商独有,不幸的是,在其他安全关键系统中也相当常见。正如美国食品药品管理局 (FDA) 的 Frank Houston 所说,“大量生命关键系统的软件来自小公司,尤其是医疗器械行业的小公司;这些公司符合那些抵制或不了解系统安全或软件工程原则的人的特征。”此外,这些问题并不局限于医疗行业。人们仍然普遍认为,任何优秀的工程师都可以构建软件,无论他或她是否接受过最先进的软件工程程序培训。许多构建安全关键软件的公司没有从软件工程和安全工程的角度使用适当的程序。大多数事故都是系统事故;也就是说,它们源于各种组件和活动之间的复杂相互作用。将事故归咎于单一原因通常是一个严重的错误。在本文中,我们希望展示事故的复杂性,以及调查系统开发和运行的各个方面以了解发生了什么并防止未来发生事故的必要性。尽管可以从此类调查中学到一些东西,但对潜在责任的担忧
1。某些竞争性或娱乐活动,包括但不限于:气泡,跳伞,跳伞,跳伞; 2。任何半职业或专业竞争运动竞赛,包括主持或教练,您都会收到任何付款; 3。战争行为,骚乱,战争; 4。操作,学习操作或担任任何飞机的飞行员或机组人员,无论是机动的; 5。袭击,重罪,非法职业或其他犯罪行为; 6。细菌感染并非因意外损伤切断或伤口引起的细菌感染; 7。由直系亲属或任何家庭成员提供的护理; 8。选修课或整容手术; 9。营养补充剂; 10。自杀或企图自杀,有意自我造成的伤害或任何自我造成伤害的尝试或任何形式的故意窒息,除非是由于诊断疾病而导致的; 11。违反任何蜂窝装置使用事故发生的州的法律,在驾驶机动车时; 12。在醉酒或在任何药物的影响下遭受的意外伤害,包括受滥用的医生规定的损害;
5.1 发射范围··············································· ···· 1
组织因素在几乎所有事故中都发挥作用,是理解和预防事故的关键部分。两个著名的社会学派别已经探讨了安全的组织方面:正常事故理论 (NAT) [15, 23] 和高可靠性组织 (HRO) [7, 8, 19, 20, 22, 25, 26, 27]。在本文中,我们认为 HRO 研究人员的结论(在本文的其余部分中标记为 HRO)在复杂、高风险系统中的适用性和实用性有限。HRO 过分简化了工程师和组织在构建安全关键系统时所面临的问题,遵循其中一些建议可能会导致事故。另一方面,NAT 确实认识到所涉及的困难,但对有效处理这些困难的可能性不必要地悲观。本文描述了一种替代的系统安全方法,它避免了 NAT 和 HRO 的局限性。虽然本文以航天飞机,特别是哥伦比亚号事故作为主要例子,但结论适用于大多数高科技复杂系统。