赞
踩
优势
劣势
简单来说就是GPU的速度更快,效率更高,但是成本更高,配置起来有难度
TensorFlow 是一个由 Google Brain Team 开发的开源机器学习库,用于数据流编程。它是一个数学软件,特别适用于大规模机器学习。TensorFlow 最初是为了内部使用而开发的,后来在 2015 年被开源。自那以后,它已经成为机器学习和深度学习领域最流行的框架之一。以下是 TensorFlow 的一些关键特点:
Anaconda是Python的包管理器和环境管理器,在网络上已经有很多安装的教程了,并且相对简单,在此教程中不再赘述
请读者在进行后续的配置前,先安装好Anaconda
使用TensorFlow时,并不一定需要CUDA和cuDNN,这取决于你是否打算在NVIDIA的GPU上运行TensorFlow。下面是关于CUDA、cuDNN和它们与TensorFlow之间关系的详细解释:
CUDA
cuDNN
关联和使用场景
两个都是集成开发环境(IDE),如何在这两个IDE中使用Pycharm本教程都会有所涉及
在这一部分中,主要要做以下两件事:
下面进入正式的教程:
首先查看自己电脑的GPU
右键此电脑
→右键选管理
→设备管理器
→显示适配器
看有没有独显,比如笔者的是NVIDIA GeForce RTX 4060
可在下面网站中查看自己电脑显卡的相应算力,太低的不建议安装(最好>=5.0)
https://developer.nvidia.com/cuda-gpus
如果对显卡性能感兴趣的读者可以参考该链接 深度学习GPU显卡选型攻略
查看相关的显卡驱动,以及最高支持的CUDA版本
nvidia-smi
查看相关信息查看相应版本关系(最重要!!!)
来到官网选择想对应的版本,一定要匹配,按照官方文档一一对应(注意还要切换为英文,中文的参考不完整)
下面是笔者的环境和选择安装的版本:
环境/系统信息 | 描述 |
---|---|
操作系统 | win11 |
显卡 | NVIDIA GeForce RTX4060 |
Python | 3.8.18 |
tensorflow-gpu | 2.10.0 |
cuda | 11.2 |
cuDNN | 8.1 |
根据选择的版本去下载相应的cuda和cuDNN,可参考以下链接
CUDA、CUDNN在windows下的安装及配置_配置cudnn-CSDN博客
cuda下载地址:CUDA Toolkit Archive | NVIDIA Developer;
cudnn下载地址:cuDNN Archive | NVIDIA Developer。
请验证完毕后再进行后续的操作,没有这两个会导致tensorflow检测不到可用GPU的问题
运行nvcc --version
检查是否成功安装
如何验证是否安装完成:
在该目录下C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.2\extras\demo_suite分别执行
.\bandwidthTest.exe
,.\deviceQuery.exe
如果
Result
都为PASS
的话则配置成功
打开Anaconda prompt
3.1) 直接以管理员身份运行
3.2) 创建新的环境,名字叫test,指定python版本为
(如果不希望环境创建在C盘,可参考w11下载anaconda在d盘,新建的虚拟环境总是在c盘怎么解决)
3.8.18conda create -n test python=3.8.18
等他跳完,像下面这样就可以了
3.3) 进入该环境conda activate test
,使用pip进行下载pip install tensorflow-gpu==2.10.0
3.4) 进入python,输入以下代码
import tensorflow as tf
tf.__version__
如成功显示版本则说明配置成功
3.5) 退出环境
conda deactivate
按如图切换Pycharm的相应配置
输入以下代码:
import tensorflow as tf
print(tf.__version__)
print(tf.test.gpu_device_name())
print(tf.config.experimental.set_visible_devices)
print('GPU:', tf.config.list_physical_devices('GPU'))
print('CPU:', tf.config.list_physical_devices(device_type='CPU'))
print(tf.config.list_physical_devices('GPU'))
print(tf.test.is_gpu_available())
# 输出可用的GPU数量
print("Num GPUs Available: ", len(tf.config.experimental.list_physical_devices('GPU')))
# 查询GPU设备
若显示True和相应的可用数量,则配置成功
首先需要添加相应的内核:
python -m ipykernel install --user --name=test --display-name test
--name=test:这指定了新内核的名称。在这个例子中,内核被命名为test。这个名字是在Jupyter Notebook中选择内核时看到的名称。
--display-name "test":这指定了内核在Jupyter Notebook界面中显示的名称。在这个例子中,显示名称也设置为"test"。
图片显示内容来自于conda install nb_conda失败原因
切换相应内核,查看代码输出
如果之前下载了新版本的CUDA,后面又想下载老版本的CUDA,在安装时发生了冲突,则需要先卸载新版本的CUDA
(只保留框出来的这几个就可以)
如图这是代理问题,关闭电脑的代理即可
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。