详细内容或原文请订阅后点击阅览
致联合国的公开信,呼吁禁止开发人工智能武器
非营利性生命未来研究所准备了一封由 1000 多名机器人和人工智能 (AI) 研究人员签名的公开信,呼吁联合国禁止开发能够在没有人类监督的情况下进行定点杀伤的军事人工智能系统。
来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)非营利性生命未来研究所准备了一封由 1000 多名机器人和人工智能 (AI) 研究人员签名的公开信,呼吁联合国禁止开发能够在没有人类监督的情况下进行定点杀伤的军事人工智能系统。
该论文在国际人工智能会议 (IJCAI 2015) 上发表,并得到了许多著名科学家和行业领袖的支持,包括斯蒂芬·霍金、埃隆·马斯克、史蒂夫·沃兹尼亚克和诺姆·乔姆斯基。
对于某些人来说,自主和军用机器人中的人工智能可能看起来只是一个集中在视频游戏和科幻小说领域的异想天开的概念。然而,最近发表的一封公开信中包含的令人不寒而栗的警告坚持认为,新技术实际上将在未来几年而不是几十年内出现,如果我们要防止现代战争新范式的诞生,就必须立即采取行动。
让我们考虑一下这些后果。根据这封公开信,许多人现在相信人工智能武器将带来继火药和核武器发明之后的第三次战争革命。然而,在前两个案例中,新技术的使用始终存在强大的障碍。战场上使用的步枪需要士兵才能开火,这意味着他将自己置于危险之中。
技术通常会使军事干预的成本更低、更具吸引力,从根本上降低冲突的门槛。此外,将人类从决策过程中剔除就消除了人类同情心和推理过程的元素,至少在可预见的未来,机器将无法使用这些元素。