能够创作艺术作品的思维机器的想法似乎很荒谬。但是,由于至少可以想象,这种机器可能在某个时候出现,因此值得考虑这种情况的后果。像本研究这样的调查太短,无法进行详尽的探索,并且它集中于版权的相关方面。为了确定这种机器的性质,可以从两个角度之一来处理这个问题。第一个是检查机器本身的性质。这是不可能的,因为除了图灵测试所涉及的问题(其中之一将在下面第 3 节中提到)之外,所讨论的机器(大概)尚不存在。第二种方法是将人类与假设的机器进行比较,这种做法更可取,原因就在于此:可以相对轻松地探索实际存在的地位。如果人类表现出某些品质,而某些权利显然应该基于这些品质被授予他们,那么问题就来了,这些品质是人类独有的,还是其他实体也具有这些品质。机器是否值得认可,尤其是是否应该被授予某些权利,这是一个常见的问题。如果人们接受这样的前提,即人类值得尊重,并且仅仅因为他们是人类就拥有某些(不可剥夺的)权利,那么任何机器都不会受到同样的对待,除非“人类”的定义足够广泛,可以将其包括在内。然而,这一前提的有效性可能受到质疑,尤其是因为不清楚是什么造就了人类——假设
电子邮件:marilia.mendonca@souunit.com.br 摘要 当前,人工智能 (AI) 与公民的日常生活息息相关,并且由于社会对该领域的消费不断增长而变得至关重要。然而,由于缺乏关于谁应该对自主情报机构造成的损害负责的具体规定,在当前情况下产生了法律的不确定性和不确定性。本文旨在阐明人工智能的自主和半自主性质,以及在发生潜在损害时谁将承担法律责任,特别是解决与自主代理相关的“责任差距”所产生的问题。采用科学研究方法,通过书目收集,例如科学文章和期刊、书籍和国际规范性决定,旨在澄清当前在处理因自主代理人造成的损害而需要承担责任的要求时的法律脆弱性。结论是需要设立人工智能特定的法人资格来解决该问题。关键词:人工智能、人格、法人资格、民事责任。摘要 当前,人工智能(AI)与公民的日常生活息息相关,由于社会对该领域的消费不断增长,它变得至关重要。然而,由于缺乏关于谁应该对自主情报人员造成的损害负责的具体规定,在当前情况下造成了法律的不安全性和不确定性。本文旨在阐明人工智能的自主和半自主性质,以及在最终造成损害的情况下应由谁承担法律责任,特别是解决与自主代理相关的“责任差距”所产生的问题。科学研究方法是
(例如1955年10月28日,民政第9卷,第11期,第1748页;最高法院判决,1970年6月24日,民政第24卷,第6期,第625页)。