自古以来,追求自主性一直是人类文化中一个普遍的主题。本文提出并讨论了自主系统的一般定义,这自然而然地导致了建立衡量系统自主性水平的指标。此定义基于系统在不确定情况下实现目标的能力,不涉及实现目标的手段,例如感知和反馈。本文认为任何自主系统都是一个控制系统,为了实现更高水平的自主性,可能需要添加传统上在运筹学和人工智能等领域开发的方法。本文介绍的工作基于作者早期关于自主航天器功能架构的工作。
武器系统自主性带来的挑战以及如何解决这些问题。斯德哥尔摩国际和平研究所和红十字国际委员会的工作特别认同这一观点,即在探索限制自主武器系统 (AWS) 的必要性时,需要解决的一个基本问题是人类控制问题。武器系统的自主性改变了人类与这些系统的互动方式,并最终决定使用武力。虽然自主性永远不会完全取代人类的决策权,但令人担忧的是,它在时间、空间和理解上造成了更大的距离,使人类使用武力的决定与后果之间产生了更大的距离。这种距离及其带来的后果的不可预测性反过来又引发了人们对国际人道主义法的应用、道德可接受性和行动有效性的担忧。核心问题是:无论技术多么复杂,我们如何确保人类在武装冲突中决定使用武力进行特定攻击时继续发挥必要作用,同时满足法律、道德和操作要求?也就是说,实践中需要什么类型和程度的人为控制?
摘要 患有神经系统疾病的青少年会经历多重人生转变。从儿科到成人医疗保健系统的转变就是这样一种复杂而多方面的转变,它与发展、法律和社会变化同时发生,这些变化可能会影响青少年及其护理人员的角色和责任。因此,过渡护理中可能会出现儿科神经科医生可能面临的道德状况、问题和挑战。在本文中,我们将重点讨论儿科神经病学背景下的自主权和过渡护理中可能出现的情况。从临床病例出发,我们提出了情境化自主权的概念来解决病例中出现的问题,并提出了在过渡护理中思考这些具有挑战性的情况的方法。
本演讲讨论了跨学科和人类活动不同方面遇到的一个概念:自主活动。我们以跨学科的方式参与其中。我们首先考虑生物实体对生物技术干预的反应和行为。我们试图描述胚胎和克隆的自由度,当考虑到表观遗传发育景观时,它们对不同的结果表现出开放性。然后,我们考虑编程和人工智能中提出的主张,即自动机可以表现出自我导向的行为,以确定其对行动过程的分步决策。这个问题仍然很大程度上悬而未决,需要一些重要的资格。我们试图理解自由主体的存在,首先从常识上,然后通过将发展可塑性归因于生物学和生物技术,以及在存在环境线索和自参考电路以及环境耦合的情况下对程序化系统进行映射。这是一个回顾尝试制定逻辑和方法论方法来处理尚待发现的概念开放性的机会,并评估它们是否能够操作尚未开发或欠发达的研究领域的结构化可理解性,其中可能存在“双重联想”和知识统一。
飞行员 1 是许多国家武装部队中的重要成员。因此,毫不奇怪,有大量关于军事飞行员的文献存在,这些文献评估了飞行员选拔(Bor 等人,2017 年,第 21-78 页)、性格(Chang 等人,2018 年)、身体素质(Rintala 等人,2015 年)、工作满意度(Ahmadi 和 Alireza,2007 年)和飞行高手的影响 2 等。在《飞行员的问题》(2018 年)一书中,Timothy P. Schultz 评估了 1903 年至 2017 年间飞行员与飞机关系的演变,并认为机器越来越多地承担了以前由飞行员执行的任务。与这种回顾性观点相反,本研究主要关注未来,特别是技术和社会发展对军事飞行员未来的影响。这是第一项深入分析这一问题的研究。
我们强调,我们并不是说技术本身在某种程度上是“坏的”。糟糕的设计是许多问题的根源。然而,随着算法的数量和人工智能在这些技术运行中的日益参与,设计师不再总是能够自己掌控:算法可能会产生意想不到的后果。在数字时代,用户有时会以设计师无法预料的方式添加内容和互动。因此,降低风险需要用户和设计师有意识的努力。然而,至关重要的是,用户可能会被他们所处的数字世界所淹没,因为他们试图协调多个独立设计的数字设备,而他们没有也不可能具备这样做的能力,因为数字世界继续以惊人的速度创新
2 红十字国际委员会,红十字国际委员会向《特定常规武器公约》致命自主武器系统政府专家组发表的声明,日内瓦,2019 年 3 月 25 日至 29 日。3 同上。另请参阅:红十字国际委员会,红十字国际委员会向《特定常规武器公约》致命自主武器系统政府专家组发表的声明,日内瓦,2018 年 4 月 9 日至 13 日和 8 月 27 日至 31 日。N. Davison,“国际人道主义法下的自主武器系统”,联合国裁军事务厅,《致命自主武器系统观点》,联合国裁军事务厅(UNODA)不定期论文,第30,2017 年 11 月,第5-18 页:https://www.icrc.org/en/document/autonomous-weapon-systems-under-international-humanitarian-law。红十字国际委员会,红十字国际委员会关于自主武器系统的观点,2016 年 4 月 11 日:https://www.icrc.org/en/document/views-icrc-autonomous-weapon-system 。4 红十字国际委员会,伦理与自主武器系统:人类控制的伦理基础?,专家会议报告,2018 年 4 月 3 日:https://www.icrc.org/en/document/ethics-and-autonomous-weapon-systems-ethical-basis-human-control 。5 红十字国际委员会,《人类控制的要素》,工作文件,《某些常规武器公约》(CCW)缔约方会议,CCW/MSP/2018/WP.3,2018 年 11 月 20 日。6 会议“自主性、人工智能和机器人:人类控制的技术方面”于 2018 年 6 月 7 日至 8 日在日内瓦红十字国际委员会(ICRC)人道主义中心举行。感谢以下专家的参与:Chetan Arora、Subhashis Banerjee(印度理工学院德里分校,印度);Raja Chatila Chatila(智能系统与机器人研究所,法国);Michael Fisher(利物浦大学,英国);François Fleuret(洛桑联邦理工学院(EPFL),瑞士); Amandeep Singh Gill(印度常驻日内瓦裁军谈判会议代表);Robert Hanson(澳大利亚国立大学,澳大利亚);Anja Kaspersen(联合国裁军事务厅,日内瓦办事处);Sean Legassick(DeepMind,英国);Maite López-Sánchez(巴塞罗那大学,西班牙);Yoshihiko Nakamura(东京大学,日本);Quang-Cuong Pham(南洋理工大学,新加坡);Ludovic Righetti(纽约大学,美国);Kerstin Vignard(联合国裁军研究所,UNIDIR)。报告由 Neil Davison 编写。红十字国际委员会的代表包括:凯瑟琳·拉万德 (Kathleen Lawand)、尼尔·戴维森 (Neil Davison)、内塔·古萨克 (Netta Goussac) 和卢卡斯·哈夫纳 (Lukas Hafner)(法律司武器科);洛朗·吉塞尔 (Laurent Gisel) 和卢卡斯·奥莱尼克 (Lukasz Olejnik)(法律司专题科);以及萨莎·拉丁 (Sasha Radin)(法律和政策论坛)。
2 红十字国际委员会,红十字国际委员会向《特定常规武器公约》致命自主武器系统政府专家组发表的声明,日内瓦,2019 年 3 月 25 日至 29 日。3 同上。另请参阅:红十字国际委员会,红十字国际委员会向《特定常规武器公约》致命自主武器系统政府专家组发表的声明,日内瓦,2018 年 4 月 9 日至 13 日和 8 月 27 日至 31 日。N. Davison,“国际人道主义法下的自主武器系统”,联合国裁军事务厅,《致命自主武器系统观点》,联合国裁军事务厅(UNODA)不定期论文,第30,2017 年 11 月,第5-18 页:https://www.icrc.org/en/document/autonomous-weapon-systems-under-international-humanitarian-law。红十字国际委员会,红十字国际委员会关于自主武器系统的观点,2016 年 4 月 11 日:https://www.icrc.org/en/document/views-icrc-autonomous-weapon-system 。4 红十字国际委员会,伦理与自主武器系统:人类控制的伦理基础?,专家会议报告,2018 年 4 月 3 日:https://www.icrc.org/en/document/ethics-and-autonomous-weapon-systems-ethical-basis-human-control 。5 红十字国际委员会,《人类控制的要素》,工作文件,《某些常规武器公约》(CCW)缔约方会议,CCW/MSP/2018/WP.3,2018 年 11 月 20 日。6 会议“自主性、人工智能和机器人:人类控制的技术方面”于 2018 年 6 月 7 日至 8 日在日内瓦红十字国际委员会(ICRC)人道主义中心举行。感谢以下专家的参与:Chetan Arora、Subhashis Banerjee(印度理工学院德里分校,印度);Raja Chatila Chatila(智能系统与机器人研究所,法国);Michael Fisher(利物浦大学,英国);François Fleuret(洛桑联邦理工学院(EPFL),瑞士); Amandeep Singh Gill(印度常驻日内瓦裁军谈判会议代表);Robert Hanson(澳大利亚国立大学,澳大利亚);Anja Kaspersen(联合国裁军事务厅,日内瓦办事处);Sean Legassick(DeepMind,英国);Maite López-Sánchez(巴塞罗那大学,西班牙);Yoshihiko Nakamura(东京大学,日本);Quang-Cuong Pham(南洋理工大学,新加坡);Ludovic Righetti(纽约大学,美国);Kerstin Vignard(联合国裁军研究所,UNIDIR)。报告由 Neil Davison 编写。红十字国际委员会的代表包括:凯瑟琳·拉万德 (Kathleen Lawand)、尼尔·戴维森 (Neil Davison)、内塔·古萨克 (Netta Goussac) 和卢卡斯·哈夫纳 (Lukas Hafner)(法律司武器科);洛朗·吉塞尔 (Laurent Gisel) 和卢卡斯·奥莱尼克 (Lukasz Olejnik)(法律司专题科);以及萨莎·拉丁 (Sasha Radin)(法律和政策论坛)。
根据 CAST/ICAO 通用分类小组 (CICTT) 航空事故类别划分的死亡人数 致命事故 –全球商用喷气式飞机机队 –2001 年至 2010 年
专题:驾驶自动化和自主性 Neville A Stanton 人为因素工程、交通研究组、Boldrewood 创新园区、土木、海洋和环境工程、工程与物理科学学院、南安普顿大学、Burgess Road、南安普顿、SO16 7QF、英国。 摘要 自动驾驶有可能为驾驶员提供支持,使他们有时间做其他事情,例如工作、休息或娱乐。问题是,在目前的例子中,自动驾驶需要驾驶员执行监控功能并随时准备在需要时进行干预。这是自动化领域最糟糕的事情。监控任务(如果执行得当)可能比手动驾驶更苛刻,驾驶员没有时间做其他事情。更糟糕的是,监控任务无法持续很长时间,有时会导致车辆碰撞,因为驾驶员无法及时干预。二十多年来进行的一项首批研究表明情况确实如此,而且自那以后确实没有任何改进。本期特刊报道了汽车自动化的最新发展,并指出了未来研究的方向。与人为因素的相关性/与人体工程学理论的相关性驾驶自动化和自主性已经来临,二十年前预测的问题开始出现。这些问题包括预期收益不足、设备不可靠、驾驶员技能衰退以及容易导致错误的设备设计。此外,驾驶员在身体和精神上都脱离了驾驶任务,可能会从事其他非驾驶任务。具有讽刺意味的是,如果驾驶员不从事其他任务,那么他们的注意力资源就会减少(使他们在紧急情况下更难以重新控制车辆)。如果驾驶员确实从事其他非驾驶任务,那么他们的注意力资源池就不会消耗到同样的程度(提供保护作用),但其他任务的干扰会减慢从自动化中重新获得车辆控制的速度。这是自动驾驶的主要难题之一,本期特刊中的论文或多或少地解决了这个问题。自动驾驶和自主驾驶简介 自动驾驶和自主驾驶的主要驱动力之一是改善人类状况的潜力。至少,自动驾驶系统可以为老年人、残疾人、年轻人、忙碌和无聊的司机提供支持。此外,这些自动驾驶系统还可以减少交通拥堵、碰撞和排放等社会问题。然而,目前,我们距离完全消除对人类监督、监控和干预需求的驾驶系统还有一段距离。事实上,Bainbridge (1983) 对自动化的讽刺在今天的车辆自动化中仍然像 35 年前在工业和飞行甲板自动化中一样成问题。Bainbridge 的