✩作者要感谢Martin Kretschmer教授,Luis Porangaba博士和Thomas Margoni教授的宝贵评论,建议和监督。作者还感谢计算机法和安全评论的编辑和匿名审阅者的评论和建议。电子邮件地址:z.li.6@research.gla.ac.uk#Zihao li是博士学位。格拉斯哥大学法学院创建中心的研究人员。他既有计算机科学的资格(B.Eng。)和法律(LL.B。&ll.m.)。他的研究兴趣集中在法律,数据和信息技术之间的关系上。最近,他的研究主要涵盖数据保护法,AI和法规,互联网和知识产权,区块链和法律以及电子证据取证。他的出版物已包含在不同的跨学科数据库中,包括科学网络,Springer Link,IEEE Xplore,Scopus和Heinonline。
因此,具体而言,如果 M 上不支持任何逻辑运算符,则完整的 k 量子比特逻辑 Pauli 群可在其补码上得到支持。如果擦除 M 中的量子比特是一个可纠正错误,则我们说子集 M 是可纠正的。根据稳定器代码的纠错条件,我们可以说,如果 M 是可纠正的,则任何在 M 上支持的 Pauli 运算符要么与稳定器反向交换,要么包含在稳定器中。相反,如果 M 不可纠正,则存在一个在 M 上支持的非平凡 Pauli 运算符,它与稳定器交换但不包含在稳定器中;也就是说,如果 M 不可纠正,则存在一个在 M 上支持的非平凡逻辑运算符。为了证明清理引理,我们按如下方式进行。我们将阿贝尔化的 n 量子比特泡利群 P 视为二进制域 F 2 上的 (2 n ) 维向量空间,并称如果 P 的相应元素可交换,则向量 x 和 y 是正交的。令 PM 表示 P 的子空间,该子空间由 n 个量子比特的子集 M 支撑。令 S 表示 [[ n, k ]] 量子稳定器代码的稳定器。令 [ T ] 表示子空间 T 的维数。我们可以将 S 表示为 S = SM ⊕ SM c ⊕ S ′ 。(3)
为 40 美元。所有其他国际邮件为 50 美元。邮政局长:将地址变更发送至 Mix,P.O.Box 638, Mt.Morris, IL 61054。期刊邮资在 Shawnee Mission, KS 和其他邮寄办公室支付。
摘要 假设一位研究人员发现了当前社交媒体使用方式的一个主要问题。当他们随后必须决定是否使用社交媒体来提高对这个问题的认识时,会出现什么样的挑战?这种情况经常发生,因为伦理学家在如何实现变革和潜在地解决他们发现的问题方面做出选择。在本文中,强调与新技术和通常被称为“大科技”相关的挑战。我们提出了所谓的人工智能伦理学家的困境,当人工智能伦理学家必须考虑他们自己在传达已发现问题方面的成功与降低成功解决问题的机会的高风险如何相关时,就会出现这种困境。我们研究伦理学家如何通过结合三种伦理理论来解决困境并找到合乎道德的行动路径:美德伦理学、义务论伦理学和结果主义伦理学。文章的结论是,试图仅使用大科技公司提供的技术和工具来改变它们的世界有时会适得其反,想要实现长期变革的伦理学家也应该认真考虑政治和其他更具颠覆性的行动途径。这两种策略各有利弊,结合使用可能是实现这些优势并减轻讨论的一些弊端的理想选择。
摘要 这篇评论是对雪莱·M·帕克 (Shelley M. Park) 的《不仅仅是肤浅》一书的回应(Park,不仅仅是肤浅:对“人工智能的白人性”的回应,哲学与技术,2021 年),也是我们自己 2020 年论文《人工智能的白人性》的拓展。我们的目的是解释人工智能的表现形式在某种意义上可以是多种多样的,但又不是多样化的。我们认为,白人性对普遍人性的主张允许白人和表现出白人特征的机器扮演广泛的角色,而给有色人种分配的刻板角色范围要窄得多。由于在大众的想象中,人工智能的属性,例如智力、力量和被视为人类,在白人种族框架中与白人有关,因此人工智能主要被塑造成白人。按照 Sparrow (Science, Technology, & Human Values 45:538–560, 2020) 的观点,我们认为这给创造或代表人工智能的人带来了两难境地。我们讨论了三种可能的解决方案:避免拟人化、明确批评种族角色类型以及将强大的人工智能表示为非白人。
AI 开发人员面临的困境。我们认为,当前 AI 开发中道德实践的方法未能解释开发人员在做正确的事情和保住工作之间做出选择的挑战。如果每个人都以某种方式行事,社会就会获得最佳结果,但实际实施这种行为会给个人带来不利影响,使他们无法做到这一点,这时就会出现社会困境。我们发现的问题是,当前的结构往往把拒绝不道德开发的负担放在开发人员的肩上,而由于他们的社会困境,他们不可能做到这一点。此外,这一挑战将变得越来越重要和普遍,因为人工智能正成为当前最具影响力的技术之一,对开发的需求巨大 [ 19 , 68 ]。人工智能领域的进步带来了数据分析和模式识别的空前进步,随后推动了该行业的进步。这一进步主要归功于机器学习,这是一种数据驱动的方法。在大多数情况下,所使用的数据都是历史数据,因此可以代表歧视性做法和不平等现象。因此,当前使用的许多机器学习模型巩固甚至加剧了现有的歧视性做法和不平等现象。此外,人工智能技术不必具有歧视性,其发展就是不道德的。基于面部识别、智能警务和安全城市系统的大规模监视已被多个国家使用 [ 29 ],社交媒体使用的新闻推送模型会创建回音室并助长极端主义 [ 24 ],自主武器系统正在生产中 [ 38 ]。
人工智能开发人员面临的困境。我们认为,当前人工智能开发中的道德实践方法未能解释开发人员在做正确的事情和保住工作之间做出选择的挑战。如果每个人都以某种方式行事,社会就会取得最佳结果,但实际实施这种行为会给个人带来不利影响,使他们无法做到这一点,这就存在社会困境。我们发现的问题是,当前的结构往往把拒绝不道德开发的负担放在开发人员的肩上,因为他们面临社会困境,不可能做到这一点。此外,这一挑战将变得越来越重要和普遍,因为人工智能正成为当前最具影响力的技术之一,对开发的需求巨大[19,68]。人工智能领域的进步导致了数据分析和模式识别的空前进步,随后该行业也取得了进展。这一进步主要归功于机器学习,这是一种数据驱动的方法。在大多数情况下,所使用的数据都是历史数据,因此可以反映出歧视性做法和不平等现象。因此,目前使用的许多机器学习模型巩固甚至加剧了现有的歧视性做法和不平等现象。此外,人工智能技术的发展即使不具有歧视性,也是不道德的。基于面部识别、智能警务和安全城市系统的大规模监控已被多个国家使用 [29],社交媒体使用的新闻推送模型会形成回音室效应并助长极端主义 [24],自主武器系统正在生产中 [38]。
数学家卡尔·西格蒙德 (Karl Sigmund) 在其 2009 年出版的《自私的演算》[7] 一书中,从博弈论的角度解答了关于自私与合作的问题。因此,很多讨论自然都与 IPD 有关。在本节中,我们将尝试从复制器动态的角度研究 IPD 博弈,并观察一些策略如何随时间演变。我们可以考虑之前在 1 中提出的 IPD。现在,由于博弈是迭代的,我们需要一种随机的方式来模拟博弈的持续时间。因此,我们可以引入一个变量 ω ∈ (0 , 1)。然后在每一轮中,以概率 ω 再次进行博弈。这可以被认为是一个几何分布,我们等待成功(游戏结束),其概率为 1 − ω 。因此,预期游戏长度为 1 1 − ω 。
高频交易 (HFT) 为商用第一代准量子计算机提供了一个绝佳的使用案例和潜在的杀手级应用。为此,我们在此提供一个简单的 HFT 博弈论模型,即著名的双人游戏“囚徒困境”。我们探索使用 Eisert、Wilkens 和 Lewenstein 量子中介通信协议在 (准) 量子云上将 HFT 实现为囚徒困境的一个实例,以及这种实现如何不仅可以提高交易速度,还可以改善 HFT 参与者的命运。使用合作博弈论推理,我们还注意到,在不久的将来,当互联网完全量子化时,玩家将能够在 HFT 中实现帕累托最优,作为强化机器学习的一个实例。