使用Pytorch轻松访问您的GPU

或…ML库如何加速非ML计算该帖子使用Pytorch轻松访问您的GPU首先出现在数据科学上。

来源:走向数据科学

很幸运能够访问具有NVIDIA图形处理单元(GPU)的系统。您是否知道有一种荒谬的简单方法可以使用python库使用旨在用于机器学习的Python库(ML)应用程序?

gpu

如果您不加快ML的来龙去脉,请不要担心,因为我们不会在本文中使用它。相反,我将向您展示如何使用Pytorch库访问和使用GPU的功能。我们将使用在CPU上运行的流行数值库Numpy与使用GPU上的Pytorch进行等效的代码来比较Python程序的运行时间。

python numpy,

在继续之前,让我们快速回顾一下GPU和Pytorch是什么。

pytorch

什么是GPU?

GPU是一种最初设计的专业电子芯片,旨在快速操纵和改变内存,以加速用于输出的框架缓冲区中图像的创建。它作为快速图像操作设备的实用性基于其同时执行许多计算的能力,并且仍然用于此目的。

但是,GPU最近在机器学习,大型语言模型培训和开发方面变得非常宝贵。它们执行高度可行的计算的固有能力使它们在这些领域中采用了复杂的数学模型和仿真,使其在这些领域中理想。

什么是Pytorch?

Pytorch是由Facebook AI研究实验室(FAIR)开发的开源机器学习库。它广泛用于自然语言处理和计算机视觉应用。可以将Pytorch用于GPU操作的两个主要原因是

  • Pytorch的核心数据结构之一是张量。张量类似于其他编程语言中的阵列和矩阵,但在GPU上运行时进行了优化。
  • 正如我们稍后将显示的那样,您不必使用Pytorch来开发机器学习模型或培训大型语言模型。

    先决条件

    此链接

    设置我们的开发环境

    true