摘要 计算复杂性是计算机科学和数学的一门学科,它根据计算问题的固有难度对其进行分类,即根据算法的性能对其进行分类,并将这些类别相互关联。P 问题是一类可以使用确定性图灵机在多项式时间内解决的计算问题,而 NP 问题的解可以在多项式时间内验证,但我们仍然不知道它们是否也可以在多项式时间内解决。所谓 NP 完全问题的解也将是任何其他此类问题的解。它的人工智能类似物是 AI 完全问题类,对于该类问题仍然没有完整的数学形式化。在本章中,我们将重点分析计算类,以更好地理解 AI 完全问题的可能形式化,并查看是否存在适用于所有 AI 完全问题的通用算法(例如图灵测试)。为了更好地观察现代计算机科学如何尝试解决计算复杂性问题,我们提出了几种涉及优化方法的不同深度学习策略,以表明无法精确解决高阶计算类问题并不意味着使用最先进的机器学习技术无法获得令人满意的解决方案。这些方法与人类解决类似 NP 完全问题的能力的哲学问题和心理学研究进行了比较,以强化我们不需要精确和正确解决 AI 完全问题的方法就可以实现强 AI 的概念的说法。
很多时候,计算机科学和计算机科学领域形成了不同的学术界。编写计算机程序也是编写操作的问题,这样执行程序就可以计算出有用的结果,并且可以在实践中实现。现代计算机理论在 20 世纪 20 年代发展起来,用来解释在无穷小尺度上观察到的波-飞点对偶,而数字计算机在随后的几十年中出现,取代了用于繁琐计算的普通计算机。在第二次世界大战期间,计算机在战时密码学中发挥了重要作用,而计算机药物对于曼哈顿计划中使用的核武器至关重要。1980 年,保罗·贝尼奥夫 (Paul Benioff) 引入了计算机图灵机,它使用计算机理论来描述简化的计算机。在 1984 年的一篇论文中,查尔斯·贝内特 (Charles Bennett) 和吉尔斯·布拉萨德 (Gilles Brassard) 将计算机理论应用于密码协议,并证明了计算机密钥分发可以增强信息安全性。一些研究人员认为,嘈杂的中规模量子计算机(NISQ)在不久的将来可能会有特殊用途,但量子门中的噪声限制了它们的可信度。近年来,公共和私营部门对量子计算研究的投资有所增加。
十六年前,斯科特·阿伦森 (Scott Aaronson) 在雷·拉弗拉姆 (Ray Laflamme) 的见证下指出,量子力学 (QM) 类似于一个操作系统,其余的物理学科都在这个操作系统上运行应用软件(广义相对论除外,“因为它还没有成功移植到这个特定的操作系统”)。在此之前,教育家和杰出的计算机科学家 (Umesh Vazirani) 凭借敏锐的洞察力才意识到,可以通过量子位和量子门的语言对 QM 进行完整而一致的介绍。更近一点,另一位博学者 (Terry Rudolph) 凭借深刻的直觉才意识到,通常作为这种方法基础的线性代数可以用中学生可以理解的简单重写系统来代替。重写系统是计算机科学的基础,事实上,它们就是计算机科学的组成部分(例如,图灵机和 lambda 演算),所以这些都是非常幸运的发展。此外,线性代数先修课程现在与机器学习牢牢地共享在计算机科学本科课程中,机器学习这一主题经历了一次非常深刻而突然的复兴。量子信息科学与技术 (QIST) 本质上是跨学科的,涵盖物理学、计算机科学、数学、工程学、化学和材料科学。我们提出了三个课程计划,将 QIST 主题(通过量子计算)纳入计算机科学本科课程
量子力学是研究自然界中最小事物的学科。在 1927 年的索尔维会议上,29 位杰出的物理学家齐聚一堂,讨论当今量子理论的基础。与会者包括阿尔伯特·爱因斯坦、玛丽·居里、马克斯·普朗克、尼尔斯·玻尔和埃尔温·薛定谔。在他们的帮助下,对量子力学的理解使我们能够开发出许多现代技术,包括 MRI 扫描仪、核能、激光、晶体管和半导体 [1]。多年后的 1980 年,利用量子力学原理进行计算的设想应运而生。Benioff [2] 通过提供图灵机的薛定谔方程描述,证明了计算机可以根据量子力学定律运行。1988 年,Yamamoto 和 Igeta 提出了量子计算机的第一个物理实现,它包括经典门的量子等价物 [3]。1991 年,Artur Ekert 发明了基于纠缠的安全通信 [4]。 1998 年,琼斯和莫斯卡在牛津大学建造了一台可运行的 2 量子比特量子计算机 [5]。这是量子算法的首次实验演示。从那时起,量子设备取得了长足的进步。2007 年,瑞士使用量子技术来保护其投票系统 [6]。在日本,2010 年,使用量子密钥加密技术保护了电视会议 [7]。中国铺设了一条 2000 公里长的光纤
摘要:由于量子信息技术在我们日常生活中的快速发展,考虑逻辑与物理之间的联系非常重要。本文讨论了一种受量子理论启发、使用算子的逻辑新方法,即特征逻辑。它使用线性代数表达逻辑命题。逻辑函数由算子表示,逻辑真值表对应于特征值结构。它通过将语义从使用投影算子的布尔二进制字母表 {0,1} 更改为使用可逆对合算子的二进制字母表 {+1, −1},扩展了经典逻辑的可能性。此外,对于任何字母表,都可以使用基于拉格朗日插值和凯莱-汉密尔顿定理的算子方法合成多值逻辑算子。考虑逻辑输入状态的叠加,可以得到一个模糊逻辑表示,其中模糊隶属函数是 Born 规则给出的量子概率。介绍了布尔、波斯特、庞加莱和组合逻辑与概率论、非交换四元数代数和图灵机的历史相似之处。受格罗弗算法的启发,提出了对一阶逻辑的扩展。特征逻辑本质上是一种运算符逻辑,其真值表逻辑语义由特征值结构提供,该结构被证明与逻辑量子门的普遍性有关,非交换性和纠缠起着根本性的作用。
摘要:由于量子信息技术在我们日常生活中的快速发展,考虑逻辑与物理之间的联系非常重要。本文讨论了一种受量子理论启发、使用算子的逻辑新方法,即特征逻辑。它使用线性代数表达逻辑命题。逻辑函数由算子表示,逻辑真值表对应于特征值结构。它通过将语义从使用投影算子的布尔二进制字母表 {0,1} 更改为使用可逆对合算子的二进制字母表 {+1, −1},扩展了经典逻辑的可能性。此外,对于任何字母表,都可以使用基于拉格朗日插值和凯莱-汉密尔顿定理的算子方法合成多值逻辑算子。考虑逻辑输入状态的叠加,可以得到一个模糊逻辑表示,其中模糊隶属函数是 Born 规则给出的量子概率。介绍了布尔、波斯特、庞加莱和组合逻辑与概率论、非交换四元数代数和图灵机的历史相似之处。受格罗弗算法的启发,提出了对一阶逻辑的扩展。特征逻辑本质上是一种运算符逻辑,其真值表逻辑语义由特征值结构提供,该结构被证明与逻辑量子门的普遍性有关,非交换性和纠缠起着根本性的作用。
量子计算机有望以比传统计算机快得多的速度执行某些计算任务。这违反了扩展的丘奇-图灵论题,该论题认为任何物理上可实现的计算模型都可以用经典图灵机有效地模拟。事实上,量子计算机最初是作为模拟量子力学系统的一种手段而提出的 [1],这项任务在传统上被认为是一项困难的任务。在识别量子计算机可以有效解决的传统难题方面已经取得了很大进展,例如整数因式分解 [2]、模拟汉密尔顿动力学 [3-5] 和提取有关高维线性系统解的信息 [6]。量子计算领域的一个重要里程碑是首次证明量子设备可以执行具有同等资源的传统设备无法执行的计算任务。这一里程碑被称为“量子霸权”[7,8]、量子优势或量子性的证明[9],并引发了大量的理论提案和实验努力。然而,构建量子计算机仍然存在巨大的技术挑战,需要在架构设计、容错和控制方面取得理论和实验上的进展。各种量子优势提案以不同的方式解决了这些挑战,通过在实验演示的简易性、验证的简易性、安全保障和实际应用之间进行权衡。模拟量子模拟[10],即用一个多体量子系统模拟另一个多体量子系统,是一种展示量子优势的自然方法。通过构建具有可调(但可能非通用)汉密尔顿量的量子系统,可以模拟一个大的
埃克塞特学院牛津暑期课程 量子计算机科学:导论 课程简介 这是一本量子计算机科学的入门书,主要面向计算机科学家、物理学家、电气工程师和数学家。它将介绍大量的思想,重点是熟悉主要概念,以及一些术语和方法的一般知识。数学方法将以“需要知道”的方式以实用的方式使用。目的是为任何希望最终加入研究工作或加入工程和商业劳动力队伍并具有丰富背景的人提供基础,以方便他们进入该学科。主要参考文本是 David Mermin 的《量子计算机科学:导论》。John Preskill 的讲义也可能有用。 教学大纲概述 1. 经典比特和经典信息 数据压缩的概念;香农信息和无噪声编码定理。 2. 经典计算机科学 图灵机和通用性、冯·诺依曼架构、逻辑门、复杂性类、停机问题。 3. 数学背景:线性代数、复数向量、特征值、厄米矩阵和幺正矩阵、交换子、泡利矩阵、狄拉克符号 4. 基本量子观察:叠加、纠缠、测量、双路径量子干涉实验、杨氏狭缝、哪条路径信息、简单测量理论(投影)、薛定谔方程 5. 量子比特、量子态、门和测量、双态量子系统、单量子比特和双量子比特逻辑门、阿达玛变换、克利福德门、Gottesman-Knill 定理、通用门集。
根据定义,人工智能是“能够执行通常需要人类智能才能完成的任务的计算机系统的理论和发展”(Oxford,2019 年)。英国逻辑学家艾伦·图灵在 20 世纪下半叶报告了该领域最早的研究。1935 年,艾伦·图灵提出了智能机器的基本概念,通常称为通用图灵机。1947 年,他进一步阐述了自己的愿景,将计算机智能描述为“能够从经验中学习的机器”(Turing,1937 年)。由于人类智能是多种能力的组合(即学习、推理、解决问题、感知和使用语言),人工智能(或机器智能)也是不同科学和工程学科的方法和技术的复合体,以便将它们融入机器(图 1)。值得注意的是,人工智能常常与机器学习混淆。学习(机器/深度学习)是人工智能的一个子领域,涉及机器学习方法和技术。机器(或深度学习)成为人工智能主要子领域的一个原因是计算机技术的长足进步和学习算法的令人瞩目的成就。根据定义,机器学习是一个多学科领域,涉及数学、统计学和计算机科学的方法和技术,用于从有关某些任务(即问题的性质)的经验(历史数据)中学习,并衡量性能(性能矩阵)并改进它(强化)(Michie 等人,1994 年)。今天,基于强化学习原理的机器学习算法不仅增强了机器的学习能力,而且还补充了智能的其他方面,例如适当的推理、有效的问题解决和事实感知。传统上,实验设计、观察数据分析
自现代计算机历史记录的开始以来,图灵机一直是大多数计算设备的主要体系结构,其中包括三个基本组件:无限磁带用于输入,读/写头和有限的控制。在此结构中,头可以读取的内容(即位)与已编写/输出的内容相同。这实际上与人类思考或思考/工具实验的方式不同。更确切地说,人类在纸上想象/写作是图像或文本,它们不是他们在人脑中所代表的抽象概念。Turing Machine忽略了这种差异,但实际上在抽象,类比和概括中起着重要作用,这在人工智能中至关重要。与此体系结构相比,所提出的体系结构使用两种不同类型的头部和磁带,一种用于传统的抽象位输入/输出,另一个用于特定的视觉(更像是屏幕或带有相机观察的屏幕或工作区)。抽象位和特定图像/文本之间的映射规则可以通过卷积神经网络,Yolo,大语言模型等神经网络实现,其精度很高。为例,本文介绍了新的计算机体系结构(为简单起见,我们称为“ Ren Machine”)如何自主地学习特定领域中的分布属性/多重规则,并进一步使用该规则来生成一般方法(在抽象领域和特定领域中混合使用),以计算基于图像/图像/图像的任何正面整体的MUL-PISTICATION)。机器的强推理能力也证实了在平面几何形状中的定理中。此外,提出了一种基于REN机器的机器人体系结构,以解决视觉语言行动(VLA)模型在不合适的推理能力和高计算成本中所面临的挑战。