详细内容或原文请订阅后点击阅览
主流科幻小说喜欢坚持将单调乏味的机器作为战争和压迫的工具……
chromaherder:主流科幻小说喜欢坚持使用单调乏味的机器作为战争和压迫的工具,这几乎是一个自我实现的预言。但是,听我说,如果我们开始考虑一个未来,拥有更人性化的人工智能和与不同智能模式(即地球上整个非人类种群)更健康的关系,会怎么样?🤔
来源:机器人相关新闻在生活模仿艺术的极端情况下,报告开篇引用了玛丽·雪莱的《弗兰肯斯坦》,随后提出艾萨克·阿西莫夫的《机器人三定律》是机器人设计师和生产商应遵守的一般原则。
报告中重点讨论了确定机器人潜在有害行为的法律责任问题。随着机器人发展出认知能力,使其能够从经验中学习并做出独立决策,法律责任问题成为一个迫切需要解决的问题。报告询问机器人如何对其行为负责,以及在什么时候责任落在制造商、所有者或用户身上。
机器人作为“电子人”
报告甚至质疑是否需要以公司法人资格概念的发展方式创建“电子人”这一新的法律类别,以赋予公司与自然人相同的一些法律权利。当然,多年来,赋予机器人任何形式的类似于人类的合法权利的想法一直备受争议。
在赋予机器人某种形式的合法权利和“终止开关”的提议之间取得平衡也引发了一些有问题的矛盾。
要求制造商在其设计中实施某种形式的“终止开关”的想法并不新鲜。 2016 年,谷歌 DeepMind 的研究人员提出了所谓的“大红按钮”,可以阻止人工智能开始或继续一系列有害的行为。 谷歌发布的论文讨论了在具有自学能力的机器中实施这种形式的终止开关的问题。 毕竟,人工智能可能会学会识别其人类控制者试图颠覆的行为,并避免执行导致其失灵的类似任务,或者在最坏的情况下学会禁用自己的“大红按钮”。