英国伦敦玛丽女王大学。摘要在本文中,我探讨了人类控制的(不)可能性,并质疑我们可以在道德上充分或有意义地控制人工智能支持的 LAWS 的前提。认真对待维纳的警告“机器可以而且确实超越了其设计者的一些限制,这样做可能既有效又危险”,我认为在 LAWS 人机综合体中,人工智能系统的技术特征和底层逻辑逐渐缩小了空间并限制了人类道德机构所需的能力。关键词人工智能;控制;道德责任;战争;武器。引言近年来,军事武器系统的自主性发展迅速。越来越多的国家,包括美国、英国、中国和俄罗斯,开发、生产或使用不同程度自主的军事系统,包括致命系统。随着机器学习和计算机处理能力的长足进步,人工智能 (AI) 融入军事系统可能会在不久的将来加速向更高和更复杂的自主形式的转变。这种希望不断提高军事武器技术自主性水平的愿望绝不是最近才出现的趋势。事实上,人工智能和军事研究与开发项目传统上是共同发展的,20 世纪 50 年代和 60 年代的控制论和人工智能研究人员已经提出了一些中肯的问题,即提高机器自主性水平将如何影响人类对军事技术的控制。
主要关键词