如果莎士比亚是个机器人,我们会在意吗?这会让他的作品失去赞扬价值,或者对社会不再重要吗?如果莎士比亚被一个聪明的程序员转世为机器人,今天出版了一部新剧本,我们会否认这部剧本的版权吗?尽管这个假设听起来很荒唐,但这些都是关于艺术人工智能 (AI) 生成作品的版权状况的迫切问题。美国专利商标局 (USPTO) 知道但不确定人工智能作品的作用和版权性。尽管《版权实践纲要》最近规定了“人类作者要求”,但程序员和公司已经开始为生成人工智能 1 生成的作品注册版权。2 由于负责管理版权注册和记录的版权局只需要有人声称某件作品是他们的,因此公司和程序员一直在利用对所有权主张的松懈调查。 3 但 Naruto v. Slater 4 和最新一期的《Compendium》表明,如果这些版权受到挑战,它们很可能会被认定无效。关于最佳正式制度 5 的学术争论和美国专利商标局征求意见 6 描述了这种不确定性,但并未澄清这一点。目前,公司在实践中的做法与版权局在书面上允许的做法之间存在差异。
摘要 自主武器系统 (AWS) 正在成为未来战争的关键技术。到目前为止,学术争论集中在 AWS 的法律和伦理含义上,但这些含义并未体现 AWS 如何通过在实践中定义不同的适当性标准来塑造规范。在讨论 AWS 时,本文对规范出现的建构主义模型提出了两点批评:首先,建构主义方法优先考虑审议,而不是规范的实际出现;其次,它们过分强调基本规范,而没有考虑程序规范,我们将在本文中介绍这些规范。详细阐述这些批评使我们能够回应研究中的一个重要空白:我们研究了在 AWS 的开发和使用中出现的程序适当性标准如何经常与基本规范和公众合法性期望相矛盾。因此,规范内容可能会在程序上形成,挑战对规范如何构建以及如何在国际关系中被视为相关的传统理解。在此,我们概述了规范与 AWS 关系的研究计划的轮廓,认为 AWS 可以通过在国际安全政策中设定适当行动的新标准产生根本性的规范后果。
摘要 自主武器系统 (AWS) 正在成为未来战争的关键技术。到目前为止,学术争论集中在 AWS 的法律和伦理含义上,但这些含义并未体现 AWS 如何通过在实践中定义不同的适当性标准来塑造规范。在讨论 AWS 时,本文对规范出现的建构主义模型提出了两点批评:首先,建构主义方法优先考虑审议,而不是规范的实际出现;其次,它们过分强调基本规范,而没有考虑程序规范,我们将在本文中介绍这些程序规范。详细阐述这些批评使我们能够回应研究中的一个重要空白:我们研究了在 AWS 的开发和使用中出现的程序适当性标准如何经常与基本规范和公众合法性期望相矛盾。因此,规范内容可能会在程序上形成,挑战对规范如何构建以及如何在国际关系中被视为相关的传统理解。在此,我们概述了规范与 AWS 关系的研究计划的轮廓,认为 AWS 可以通过在国际安全政策中设定适当行动的新标准产生根本性的规范后果。
我们需要对人工智能进行魏森鲍姆测试 我们不需要问人工智能是否像人类一样思考,而是需要一个新的测试:它是否有用?艾伦·图灵在 1950 年发表的《计算机与智能》论文中提出了“机器能思考吗?”的问题。但他并没有参与他认为永无止境的关于智能定义的主观争论,而是提出了一个思想实验。他的“模仿游戏”提供了一种测试,其中评估者与人类和计算机进行对话。如果评估者无法区分他们,则可以说计算机表现出了人工智能。自图灵发表论文以来的几十年里,人工智能领域从科学炒作的源泉变成了学术死水,再变成了淘金热。自始至终,图灵测试都给计算机科学家们一种方向感,一种对图灵所说的“通用机器”的探索。一篇历史评论总结道,图灵的论文“推动了整个人工智能 (AI) 领域的发展……计算机科学领域没有其他一篇文章,科学界也很少有其他文章能引发如此多的讨论”。关于图灵测试是否是衡量人工智能的合理标准,争论仍在继续。但图灵测试的真正问题在于它提出了错误的问题。人工智能不再是一个学术争论。它是一个技术现实。为了让社会对人工智能做出正确的决定,我们不需要知道某样东西是否智能;我们需要知道它是否有用。过去一年的认识是,人工智能太重要了,不能留给计算机科学家。因此,我们应该关注两种倾向:科学主义——用科学术语来框定公共问题——和解决方案主义——根据想象中的技术解决方案来定义公共问题。图灵测试加剧了这两种倾向。它给科学家一种虚假的目的感——为了智能而智能——以及一种忽视其他人对这类机器可能用途的担忧的许可。 2003 年,图灵奖获得者艾德·费根鲍姆 (Ed Feigenbaum) 用一个不太恰当的措辞写道,这种人工智能是“计算机科学的天定命运”。去年,我们看到了这个必然性故事中的问题,以及它所掩盖的殖民野心。