2预防医学系,埃斯科拉·保丽斯塔·德·梅迪纳(Escola Paulista de Medicina),联邦联邦政府,巴西,苏·保罗(S〜Ao Paulo); 3澳大利亚新南威尔士州韦斯特米德市NICM健康研究所;澳大利亚新南威尔士州健康; 5马萨诸塞州波士顿。大韩民国首尔的塞索伊大学; 7美国圣地亚哥大学,智利圣地亚哥大学; 8马萨诸塞州波士顿。 9面向devort,UCAM。西班牙穆尔西亚穆尔西亚奥利卡大学
分析技术以因果模型为基础,该模型描述系统零部件在从初始故障或扰动到不可接受的后果的意外事件链中所起的作用。直到最近,大多数包括人为错误的分析工作都用于验证现有运行中传统设计的过程工厂在人机界面方面的安全性,例如,Therp (Swain 1976) 在核电站 (WASH 1400) 上的使用。这种情况导致人们从外部人为任务的结构和要素而不是人的功能和能力及其局限性的角度来定义错误和量化错误率。通常,当前的方法是根据任务元素或步骤的错误排序或执行对人为错误进行分类;即,分析方法基于任务模型而不是执行任务的人的模型。然后通过“绩效塑造因素” (Swain 1976, 1980) 考虑人类的功能和特征。
印度尼西亚60%的航空运输是由人为因素造成的。人们已经开发了多种方法来识别和分析人为错误,其中之一是人为因素分析和分类系统(HFACS)。该方法解释了人为失误的四个层面,即不安全行为、不安全行为的前提、不安全监管和组织影响。本研究旨在确定 HFACS 层不安全行为和不安全监管在调查印度尼西亚航空事故中的可靠性,并确定影响这种可靠性的因素。用于测试 HFACS 可靠性的方法是一致性指数(IOC)。此方法计算受访者之间的一致性百分比。本研究共有 7 名受访者参与评估 HFACS 的可靠性,通过使用 HFACS 评估 5 个事故案例,并填写问卷评估 HFACS 的全面性、灵活性、效率和可用性水平。超过 70% 的百分比被认为是可靠的。从问卷调查结果来看,层层同意率为89.50%,次层同意率为24.11%。因此,不安全行为和不安全监管层在层级可靠,但在子层级不可靠。有几个因素会影响这种可靠性,即信息的完整性、HFACS 问卷调查对象、HFACS 说明和研究程序。。
• 研究结果表明,超过一半的航空、航天和航空事故/事件都是人为失误造成的。作为太空探索地面处理操作质量的一部分,必须确定和/或分类人为失误的潜在因素和原因,以便管理人为失误。
主要作者:Ester van der Voet,荷兰莱顿大学;章节编辑:Ester van der Voet,荷兰莱顿大学;Reijo Salminen,芬兰地质调查局,芬兰;Matthew Eckelman,美国波士顿东北大学;Gavin Mudd,澳大利亚莫纳什大学;Terry Norgate,澳大利亚联邦科学与工业研究组织矿产战略旗舰项目,澳大利亚;Roland Hischier,瑞士 EMPA;贡献作者:Job Spij- ker,荷兰国家公共卫生与环境研究所;Martina Vijver,荷兰莱顿大学;Olle Selinus,瑞典林奈大学;Leo Posthuma,荷兰国家公共卫生与环境研究所;Dick de Zwart,荷兰国家公共卫生与环境研究所;Dik van de Meent,荷兰奈梅亨拉德堡德大学;Markus Reuter,芬兰埃斯波 Outotec Oyj;Ladji Tikana,德国铜业发展协会,德国; Sonia Valdivia,环境署,法国; Patrick Wäger,EMPA,瑞士; Michael Hauschild,丹麦技术大学,丹麦; Arjan de Koning,荷兰莱顿大学。
摘要关于人工智能(AI)的哲学,法律和HCI文献探讨了这些系统将影响的道德含义和价值观。仅被部分探索的一个方面是欺骗的作用。由于该术语的负面含义,AI和人类计算机相互作用(HCI)的研究主要考虑欺骗,以描述该技术不起作用或用于恶意目的的特殊情况。最近的理论和历史工作表明,欺骗是AI的结构性组成部分,而不是通常所承认的。AI系统与用户进行通信实际上,即使在没有恶意意图的情况下,也会引起性别,个性和同理心归因等反应,并且常常对互动产生积极或功能的影响。本文旨在将以人为中心的AI(HCAI)框架运行,以发展这项工作的含义,以实用HCI和设计中的AI伦理学方法。为了实现这一目标,我们在AI的理论和历史奖学金中提出了“平庸”和“强大”欺骗之间的分析区别(欺骗性媒体的Natale:Turnial Interial Intelligence和Turing University test后的人工智力和社交生活,牛津大学出版社,纽约,纽约,20211年),作为开始的创作,以努力发展,这是一项努力的创作。欺骗与交流AI之间的复杂关系引起的问题。本文考虑了如何将HCAI应用于对话AI(CAI)系统,以设计它们以开发社会善良的平庸欺骗,同时避免其潜在风险。
生成式人工智能 (“AI”) 已经开始改变法律实践。如果乐观的预测被证明是正确的,那么这项技术将如何改变司法意见——一种通常被视为法律核心的体裁?这篇研讨会论文试图回答这个预测性问题,它揭示了当前的现实。简而言之,意见的提供将变得更便宜,而且供应范围更广、更均衡。司法著作往往更有活力、更多样化、更少审议性。随着法律体系说服能力的经济被打乱,法院将与公众展开一场军备竞赛:法官将使用人工增强的修辞来宣传自己的合法性,公众将变得更加愤世嫉俗,以避免被愚弄。矛盾的是,过多的说服性修辞可能会使法律推理本身变得过时。为了应对这些发展,一些法院可能会禁止使用人工智能写作工具,以便他们能够继续声称作者身份带来的权威。因此,潜在的利害关系既包括法律理性的命运,也包括人类参与法律体系的未来。
摘要:复杂技术系统中的控制设计和功能分配主要由技术驱动,从而提高了自动化程度。技术开发中很少考虑人或用户的观点。相关态度似乎是提高自动化程度将减少人为错误的发生,从而确保更安全的设计和操作。然而,提高自动化水平可能会降低操作员的态势感知能力。船舶动态定位 (DP) 系统的设计也是如此。事故统计数据显示,某些 DP 操作中的碰撞频率高于验收标准,并且技术和人为故障的结合是几乎所有事故的主要原因。本文强调了在 DP 系统的设计和操作中考虑操作员的作用和人的可靠性的重要性。本文介绍了 DP 系统的功能模型,并讨论了当前的控制功能分配及其对操作员的态势感知和性能的影响。本文最后提出了有关控制功能分配和操作风险可视化的建议,以提高操作员的绩效和可靠性。关键词:人为可靠性、自动化、动态定位 (DP)、控制功能分配、态势感知。1.简介 复杂技术的控制设计和功能分配主要由技术驱动(这意味着技术的能力是其发展的核心),从而提高了系统的自动化程度。自动化一词有几种定义。本文采用了 Sheridan 的定义 [1]:“自动化是指环境变量感知(通过人工传感器)、数据处理和决策(通过计算机)以及机械动作(通过电机或可以对环境施加力或向环境传递信息的装置)的机械化和集成化”。本文使用的术语“自动化”表示机器执行以前由人执行的功能 [2]。在先进技术系统的设计阶段,很少采用人或用户的观点 [3]。相关态度似乎是,更多的自动化将减少人为错误的发生,从而确保更安全的设计和操作 [4]。然而,自动化水平的提高可能会付出代价。动态定位 (DP) 系统是一种复杂而先进的技术。国际海事组织 (IMO) 将 DP 船定义为仅依靠推进器就能保持位置和航向并沿着预定航线缓慢行驶的船舶。DP 系统包括实现位置保持所需的所有系统,包括 DP 计算机控制系统 (DPCCS)、推进器系统和电力系统 [5]。DP 船依靠计算机系统解释来自参考系统、风和运动传感器的信号,以保持位置和航向或遵循预设航线。保持位置或遵循预设航线是通过调整船舶推进器的方向和力量来实现的。DP 用于各种操作。在海上石油和天然气行业中,它可用于卸载、钻井、潜水、海底干预、地震和施工作业 [6]。IMO [5] 定义了三个 DP 等级。分类的基础是最坏情况的单一故障模式。
分析技术基于因果模型,该模型描述了系统各部件和组件在从初始故障或干扰到不可接受的后果的意外事件链中所起的作用。直到最近,包括人为错误在内的大多数分析工作都花在了验证现有传统设计的运行过程工厂在人机界面方面的安全性上,例如,在核电站 (WASH 1400) 上使用 Therp (Swain 1976)。这种情况导致了对错误的定义和错误率的量化,这些定义和量化涉及外部人为任务的结构和元素,而不是人的功能和能力及其局限性。通常,当前的方法基于对人为错误的分类,分类依据是任务元素或步骤的错误排序或执行;即,分析方法基于任务模型,而不是执行任务的人的模型。然后通过“绩效塑造因素”考虑人类的功能和特征(Swain 1976, 1980)。