• 英特尔 ® 针对 PyTorch* 的优化:英特尔 ® oneAPI 深度神经网络库 (oneDNN) 包含在 PyTorch 中,作为深度学习的默认数学内核库。 • 英特尔 ® 针对 PyTorch 的扩展:英特尔 ® 针对 PyTorch* 的扩展通过最新特性和优化扩展了 PyTorch* 功能,从而在英特尔硬件上进一步提升性能。 • 英特尔 ® 针对 TensorFlow* 的优化:此版本将 oneDNN 中的基元集成到 TensorFlow 运行时中,以加速性能。 • 英特尔 ® 针对 TensorFlow 的扩展:英特尔 ® 针对 TensorFlow* 的扩展是基于 TensorFlow PluggableDevice 接口的异构高性能深度学习扩展插件。此扩展插件将英特尔 XPU(GPU、CPU 等)设备带入 TensorFlow 开源社区,以加速 AI 工作负载。 • 英特尔 ® 针对 Python* 的分发版:开箱即用,获得更快的 Python 应用程序性能,几乎不需要更改代码。此发行版与英特尔 ® oneAPI 数学核心函数库和英特尔 ® oneAPI 数据分析库等英特尔 ® 性能库集成。 • 英特尔 ® Modin* 发行版(仅通过 Anaconda 提供),您可以使用这个智能的分布式数据框库(其 API 与 pandas 相同)在多节点之间无缝扩展预处理。只有通过使用 Conda* 软件包管理器安装英特尔 ® 人工智能分析工具包才能使用此发行版。 • 英特尔 ® Neural Compressor:在流行的深度学习框架(如 TensorFlow*、PyTorch*、MXNet* 和 ONNX*(开放神经网络交换)运行时)上快速部署低精度推理解决方案。 • 英特尔 ® Scikit-learn* 扩展:使用英特尔 ® oneAPI 数据分析库(oneDAL)无缝加速您的 Scikit-learn 应用程序。
过去十年,量子计算和信息处理因比经典算法具有更快的加速性能而引起了人们的广泛关注。从数学上讲,一个整体的量子操作可以看作是在构建量子网络中对输入量子比特进行的一系列幺正变换。实现量子计算的物理系统有很多,如离子阱、约瑟夫森结、氮空位中心等[1]。在这些物理系统中,线性光学方案最具吸引力,因为量子信息载体是光子,而光子可能不存在退相干[2,3]。当对输入光子进行量子计算时,基本量子比特通常由两个正交模式或两个偏振通道中的单光子来准备。为了在量子信息处理中产生所需的演化,每个相应的量子比特操作由一些简单的光学元件或它们的组合来实现,如分束器、移相器和波片[4,5]。单量子比特操作属于 U(2) 变换类,此类变换已在理论上进行了讨论,并通过这些元件的组合在实验中实现了 [2–6]。然而,使用传统线性光学元件的物理实现似乎体积庞大,难以集成到物理系统小型化,因此非常希望简化当前的光学实现。另一方面,超表面(单层或多层超材料结构)可以平坦、紧凑地实现经典光学区域中不同光学元件的小型化 [7,8]。由于在制作任何量身定制的共振超材料结构时都具有丰富的自由度,它们已经应用于需要复杂自由度的不同场景,包括全息图 [9,10]、光学平面透镜 [11,12]、斯托克斯偏振仪 [13–15] 和模拟计算 [16–18]。具体来说,超材料已用于执行信息或图像处理。通过将超材料像素化为一组离散结构,这些“数字超材料”可进一步用于执行不同的数学运算,如傅里叶变换和微分[15-22]。扩展到量子光学领域,超表面可用于替代传统的线性光学元件