为什么我们应该为 ML 中的量子计算烦恼?

量子机器学习原理这篇文章我们为什么要为机器学习中的量子计算烦恼?首先出现在《走向数据科学》上。

来源:走向数据科学
当黑猫徘徊、南瓜闪闪发光时,祝你在万圣节好运。 (未知)

、有关量子计算的会议、研讨会、文章和书籍成倍增加,开辟了处理信息和重新考虑经典系统局限性的新方法。经典研究和量子研究之间的相互作用也推动了将熟悉的技术与量子资源相结合的混合算法。本文介绍了量子计算的本质,并试图详细阐述在数据科学中的进一步应用。

经典系统的局限性

随着 2025 年诺贝尔物理学奖 [1] 表彰量子隧道技术的进步,很明显量子技术将在未来几年更加普及。这个自 20 世纪 80 年代以来发展起来的关键思想是,量子隧道使设备能够将叠加、纠缠和干涉(定义参见图 1)转变为我们可以设计的工具,这意味着我们可以在真实芯片上运行真实算法,而不仅仅是在模拟中,并探索更有效地从高维数据中学习的新方法。

荣获 2025 年诺贝尔物理学奖 量子隧道

在我们深入了解基础知识之前,有必要问一下为什么我们的工作流程中需要量子。问题是:

工作流程
当今的方法有哪些限制迫使我们重新构建我们的方法并考虑我们已经使用的工具之外的替代方案?

摩尔定律的局限性:

1965 年提出的摩尔定律预测,芯片上的晶体管数量以及计算能力大约每两年就会增加一倍。这种期望通过稳定的晶体管小型化推动了数十年的进步:芯片每两年安装的晶体管数量大约增加一倍,使计算更便宜、更快[2]。

增加 发热和功率密度,使冷却和稳定性更难管理 摩尔定律预测的指数增长不可能无限期地持续 量子计算提供了不同的途径 量子机器学习 (QML) 量子位

安全范式