赞
踩
本文主要介绍服务器上的深度学习环境配置,以及如何利用本地机器来远程连接使用服务器。
深度学习环境配置总体思路
1)先安装显卡驱动和该驱动最高支持的cuda版本(用nvidia-smi,以及nvcc -V查看)
2)安装Anaconda,创建自己的虚拟环境在虚拟环境中安装pytorch与对应的cuda版本。
查看安装版本方法:
import torch/print(torch.version)/print(torch.version.cuda)
在安装pytorch时需注意,官方安装比较满,一般需要换源,命令如下:
pip install torch torchvision -i https://pypi.mirrors.ustc.edu.cn/simple/
3)在自己的虚拟环境中配置各种包
一般服务器自带启动盘,一直yes就行了。
安装成功后,打开终端,把相应的配置更新一下:
sudo apt update
sudo apt upgrade
这里有很多安装教程,介绍一种常用的一种最简单的。
1)常用的方法
以下命令在终端依次执行
# 卸载已有驱动
sudo apt-get --purge remove nvidia*
sudo apt autoremove
sudo apt-get --purge remove "*cublas*" "cuda*"
sudo apt-get --purge remove "*nvidia*"
# 安装推荐驱动
sudo ubuntu-drivers autoinstall
# 重启
sudo reboot
2)最简单的方法
选择设置中的【软件和更新】-【附加驱动】,选择如下图所示。
然后在终端测试一下,是否安装成功
nvidia-smi
显卡驱动安装成功,同时要注意我们显卡驱动的版本为515.65.01,
它能够支持安装cuda的最高版本为11.7,后续安装的cuda版本要小于11.7。
本文安装的是cuda 11.3,其他版本类似。
进入官网 https://developer.nvidia.com/cuda-toolkit-archive
cuda 11.3.0/11.3.1 随便选一个就行,这里我选择11.3.1,选择之后进入了下面这个页面,按照我这个选:
随后就会生成下载链接:
在Ubuntu终端执行:
wget https://developer.download.nvidia.com/compute/cuda/11.3.1/local_installers/cuda_11.3.1_465.19.01_linux.run
等
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。