先进新技术的引入正在改变航天工业。人工智能为与太空相关的活动提供了前所未有的可能性,因为它使空间物体能够获得自主性。空间物体自主水平的提高并非没有法律影响。缺乏人为控制对现有的责任框架提出了挑战。本文回顾了《外层空间条约》和《责任公约》的规定,作为介绍在自主空间物体造成损害的情况下归责的法律依据的主要法律文件。本文研究了这些法律框架在责任归责方面的局限性,并确定了可能导致责任缺口的条件。本文分析了《责任公约》的修订、《外层空间条约》第六条引入的“国际责任”概念和若干国际法原则,作为防止责任缺口和减轻自主空间物体带来的风险的潜在解决方案。
如何为自主人工智能 (AI) 系统的行为归责一直是人文和社会科学领域的广泛争论话题。这项研究提出了两个实验(每个实验 𝑁 =200),测量人们对保释决策背景下有关人工智能和人类代理的八种不同道德责任观念的看法。使用现实生活中的改编场景,我们的实验表明,对于相同的任务,人工智能代理与人类代理一样要承担因果责任并受到类似的指责。然而,人们对这些代理的道德责任的看法存在显著差异;与人工智能代理相比,人类代理被赋予了更高程度的当前和前瞻性责任观念。我们还发现,无论决策性质如何,人们都期望人工智能和人类决策者和顾问能够证明他们的决策是合理的。我们讨论了这些发现对政策和人机交互的影响,例如在高风险场景中需要可解释的人工智能。