Loading...
机构名称:
¥ 1.0

人类与人工智能系统之间的关系必须被视为两个代理在执行活动过程中的协作过程。当两个人合作时,这种合作的一个基本特征是存在共同监督,每个代理都监督对方的行为。这种监督确保活动实现其目标,但也意味着对活动后果的责任是共同承担的。如果没有共同监督,任何合作者都不能对对方的行为承担共同责任。当合作发生在一个人和一个人工智能系统之间时,共同监督也是必要的,以确保活动目标的实现,但这也意味着对活动后果负有共同责任。因此,如果每个代理对活动后果的责任取决于该代理对另一个代理行为的监督的有效性和效率,那么就有必要考虑监督的方式及其所依赖的因素。在人类监督人工智能系统行为的情况下,有大量心理学研究可以帮助我们建立认知和非认知界限,以及它们与人类与人工智能系统合作的责任之间的关系。也有心理学研究关于外部观察者如何监督和评估人类行为。这些研究可用于对人工智能系统进行编程,从而确定人工智能系统的责任界限。在本文中,我们将描述一些示例,说明如何利用监督另一个代理的行为任务的研究来建立人类与人工智能系统之间的共同责任界限。本文最后提出,我们应该开发一种方法,根据人类和人工智能代理在执行一项共同活动期间的合作结果来评估责任。

人类与人工智能合作时的人工智能与伦理

人类与人工智能合作时的人工智能与伦理PDF文件第1页

人类与人工智能合作时的人工智能与伦理PDF文件第2页

人类与人工智能合作时的人工智能与伦理PDF文件第3页

人类与人工智能合作时的人工智能与伦理PDF文件第4页

人类与人工智能合作时的人工智能与伦理PDF文件第5页