当前位置:   article > 正文

大数据及机器学习带 GPU 必须干的第一件事_机器学习用显卡

机器学习用显卡

一、背景

这不仅仅是 Python 语言类进行机器学习解决性能问题的唯一,在使用 Java/Python 进行大数据处理时,有时候也会有遇到需要 GPU 来解决性能的问题。

以作者的使用经验来看,在需要并行计算能力的程序里,CPU 再强壮也比不过 GPU 的加持。

所以 GPU 很重要,但不了解的朋友们,可能一买来爱机,就急急忙忙地开发体验,却不知所以然,有可能是因为少干了几件事!非得要等开发了,才一堆报错,如下所示:

  1. File "..\torch\cuda\__init__.py", line 239, in _lazy_init
  2. raise AssertionError("Torch not compiled with CUDA enabled")
  3. AssertionError: Torch not compiled with CUDA enabled
  4. # 又或者是
  5. xFormers can't load C++/CUDA extensions. xFormers was built for:
  6. caught exception 'Torch not compiled with CUDA enabled', memory monitor disabled

上面的图不是唯一的错误,现归类一下,大概不了解的朋友们一共会出现三类:

  1. 没有 GPU 却强制写了 GPU 的代码;
  2. 有 GPU 但没有安装驱动;
  3. 有 GPU 也装了驱动,却没有装正确的库; 

二、安装显卡驱动程序

请自行前往 NVidia 驱动程序下载页 进行挑选,毕竟每个人的电脑不太一样,但我初步看了一下,大家可能买的电脑的支持列表大概一致,如果一样你就点此 传送门 去下载,下图是传送门的截图

安装时一般傻瓜式安装就可以了,这里不详细说了,都是系统驱动。

三、安装 CUDA 工具包支持

上面一节一般默认安装后,程序的位置会在:C:\Windows\System32\nvidia-smi.exe

如果一不小心自己换了别的目录而没有被识别,你可以去配置 PATH 自行添加。

接着在安装 CUDA 之前,先看一下你所购买的当前 CUDA 版本号是多少?具体如下:

从上图可以得到,需要关注的是 12.3 的版本,点此 传送门 即可到达指定地点,下面是截图预览。

一般情况下,尾号版本具有更大的兼容性,所以我这边直接选了 12.3.2,也是一样默认安装。 

装完之后,它的默认路径一般在(下图所示):

四、使用 Python 代码快速测试

4.1、使用 pytorch 框架

  1. import torch
  2. # 检查是否有CUDA支持
  3. if torch.cuda.is_available():
  4. print("CUDA支持可用")
  5. else:
  6. print("CUDA支持不可用")

注意事项,这里没有讲太多,因为不讲库安装,这里提个醒,pytorch 需要注意一下关键字:

类似 torch-2.1.2+cu118 这样的才是支持 GPU,而 torch-2.1.2 是没有 !

4.2、使用 tensorflow 框架

  1. import tensorflow as tf
  2. # 获取可见的GPU设备列表
  3. gpu_devices = tf.config.experimental.list_physical_devices('GPU')
  4. if gpu_devices:
  5. print("GPU支持可用")
  6. else:
  7. print("GPU支持不可用")

五、扩展知识

5.1、什么是 nvidia-smi 命令行程序

首先要明白什么是 smi?它的英文全称是 System Management Interface。

所以我们可以通俗点叫它 NVIDIA 系统管理接口或界面 (nvidia-smi) ,它是一个命令行实用程序,基于 NVIDIA 管理库 (NVML) ,旨在帮助管理和监控 NVIDIA GPU 设备。

所以如果你没有支持 nvidia-smi,那么所有 N卡相关的 GPU 都基本不能使用。

那 NVML 又是什么?它的英文全称是 NVIDIA Management Library。它基于 C 的 API,用于监控和管理 NVIDIA GPU 设备的各种状态。它提供对通过 nvidia-smi 公开的查询和命令的直接访问。NVML 的运行时版本附带 NVIDIA 显示驱动程序,SDK 提供相应的标头、存根库和示例应用程序。每个新版本的 NVML 都向后兼容,旨在成为构建第三方应用程序的平台。

5.2、CPU 与 GPU 在开发及应用中的区别

在机器学习中,CPU(中央处理器)和 GPU(图形处理器)都可以用于训练和推理模型,但它们在性能和适用场景上有所不同。以下是 CPU 和 GPU 在机器学习中的主要区别:

5.2.1、并行处理能力

CPUCPU 通常有较少的核心(如 2 到 16 个),适合处理顺序任务和复杂的逻辑运算。
GPUGPU 拥有数百到数千个较小的核心,适合大规模并行计算,如矩阵运算和向量运算。

5.2.2、内存带宽

CPUCPU 的内存带宽相对较低,访问内存的延迟较高。
GPUGPU 具有更高的内存带宽,可以快速访问大量数据,适合处理大规模数据集。

5.2.3、计算速度

CPUCPU 在处理复杂的逻辑运算和分支预测方面表现出色,但在大规模并行计算方面较慢。
GPUGPU 在大规模并行计算方面表现出色,特别适合矩阵运算和卷积等操作,可以显著加速机器学习的训练和推理过程。

5.2.4、编程模型

CPU使用传统的编程语言和库,如 C++、Python 等,编程模型相对简单。
GPU需要使用特定的编程框架和库,如 CUDA(针对 NVIDIA GPU)或 OpenCL,编程模型相对复杂,需要考虑并行编程和内存管理。

5.2.5、成本和功耗

CPU相对便宜,功耗较低。
GPU通常比 CPU 更昂贵,功耗较高,需要额外的散热措施。

5.2.6、适用场景

CPU适合处理较小规模的数据集、复杂的逻辑运算以及部署在资源受限的环境中。
GPU适合处理大规模数据集、计算密集型任务(如深度学习)以及需要实时性能的应用场景。

在实践中,许多机器学习任务,特别是深度学习,都倾向于使用 GPU 来加速训练和推理过程。然而,对于某些特定的任务和场景,如部署在嵌入式设备或边缘计算中,CPU 仍然是一个可行的选择。此外,一些机器学习框架和库,如 TensorFlow 和 PyTorch,提供了同时支持 CPU 和 GPU 的灵活性,可以根据需求和可用资源进行选择。

5.3、什么是 CUDA?

CUDA(Compute Unified Device Architecture)是由 NVIDIA 开发的一个并行计算平台和编程模型,旨在利用 NVIDIA GPU 的并行处理能力来加速计算密集型任务。它允许开发者使用类似于 C/C++ 的语言来编写能够在 GPU 上运行的程序,从而大大提高计算性能。

CUDA 的出现极大地推动了 GPU 计算的发展,使得开发者能够更容易地利用 GPU 的并行处理能力来加速计算密集型任务。它已经成为了许多高性能计算和机器学习框架的重要组成部分,如 TensorFlow、PyTorch 等。然而,需要注意的是,CUDA 仅支持 NVIDIA GPU,对于其他厂商的 GPU,需要使用其他编程模型和框架,如 OpenCL 等。

六、参考资料

  1. NVidia 官方社区

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/391824
推荐阅读
相关标签
  

闽ICP备14008679号