当前位置:   article > 正文

使用Docker搭建实验室共享GPU服务器_docker实验室

docker实验室

引入

背景

实验室已有一台GPU服务器由学长管理,BOSS新购了一台服务器并希望能够像已有的那个服务器一样,让多人共同使用GPU资源而不相互干扰,同时系统资源分配比较灵活。经过一番考虑和踩坑,终于完美搭建GPU平台,记录下以供后人参考。

服务器配置

  1. CPU: I7-9700K
  2. 主板: 微星Z390 gaming pro carbon
  3. 内存: 海盗船16G DDR4 3200MHZ x4
  4. 固态: Intel 760P 1T NVME固态
  5. 机械: 希捷2T
  6. 显卡: 技嘉2080Ti WF3 x2

方案决策

  1. 宿主机选择Ubuntu16.04 LTS,引导方式为UEFI,1T固态挂载点为/,2T机械挂载点为/home
  2. 虚拟机容器选择Docker,为了支持在虚拟机中使用GPU资源,使用nvidia-docker插件。
  3. 容器使用bridge方式联网,通过端口映射开放部分端口,与宿主机映射部分共用文件夹以方便管理和文件传输。
  4. Docker日常管理使用Shipyard中文版这个Docker Web GUI。

为什么选择这个方案

  1. 考虑过LXD,其实第一台服务器就是学长使用LXD搭建的。但是经过一段时间的踩坑,发现LXD生态完全不能和Docker相比,很多问题只能Google甚至无从查找,存储等设置对于笔者这种不太懂Linux的同学也过于复杂(创建存储池?指定已存在的块设备还是新建?zfs loop设备无法自定义存储位置?如何从虚拟机打包镜像?),很多问题不知道该怎么解决也很难搜索到解答,和学长再次交流后决定弃LXD转Docker,同样是踩坑,起码Docker还可以baidu到解答。
  2. 相较于通过Linux多用户权限分配/口头约定的方式进行共享,基于容器的方案能够彻底隔离不同用户对环境的干扰,新建和删除已有容器非常简单,用户在容器内可以随便操作,不会影响宿主机的运行和其他用户(但是计算/存储资源仍是共享的,且小概率下单个容器的卡死会影响整个宿主机卡死)
  3. 经过调研,Docker只要使用nvidia-docker插件就能够使容器访问GPU,并支持GPU资源的灵活分配。
  4. 为了能够充分利用固态和机械,仿照之前那台服务器的做法将机械挂载到/home,之后将docker存储设置到/home里就可以充分利用机械盘。
  5. 为了以后能够更方便地管理服务器,调研了Weave Scope、Shipyard、DockerUI三款产品。由于Weave Scope并非专门的Docker Web UI,DockerUI没有登录体系,功能也少,另外我发现了Shipyard的中文版,脚本安装也非常简单,直接选择Shipyard。

安装步骤

概述

本文详细记述了从安装系统到最后实际运行的全过程,主要包括:

  1. 安装Ubuntu16.04 LTS
  2. 安装显卡驱动
  3. 安装nvidia-docker并配置
  4. 编辑Docker容器,生成模板镜像供以后使用

接下来要注意的问题

  1. 系统的EFI分区建议分配不少于550M
  2. 安装完nvidia-docker前不要配置daemon.json文件,安装时会覆盖
  3. 设置apt源时一定要设置对应系统版本的源,否则不会立即报错但会出现各种问题

安装Ubuntu16.04 LTS

记得勾选安装第三方软件
在安装选项那里选择自定义安装,全部设置为主分区,硬盘具体分区为:

硬盘大小格式挂载点
固态550MEFI-
固态4GSWAP-
固态900G+EXT4/
机械2TEXT4/home

安装过程比较简单,但估计是因为从MBR格式转为GPT格式的问题,安装过程一直失败,最后经过一次全默认安装后再自定义安装就可以了。

宿主机换apt源

接下来使用vim命令,直接在本机显示器上操作的可以将下面带vim的指令替换为gedit,在本机打开文本编辑器更好操作。

备份删除旧源

sudo mv /etc/apt/sources.list /etc/apt/sources.list.bak
  • 1

写入新源

sudo vim /etc/apt/sources.list
  • 1

粘贴进去保存退出
清华源的链接参考https://mirrors.tuna.tsinghua.edu.cn/help/ubuntu/

vim的使用方法:(按 I 进入insert模式,粘贴后按 ESC退出insert模式,再输入:wq!回车强制保存退出)

更新

sudo apt-get update
  • 1

禁止Linux内核更新

查看已安装的内核

sudo dpkg --get-selections | grep linux
  • 1

禁止更新内核

sudo apt-mark hold linux-image-x.xx.x-xx-generic
  • 1

以后如需要恢复更新

sudo apt-mark unhold linux-image-x.xx.x-xx-generic
  • 1

安装显卡驱动

参考
去官网 https://www.nvidia.cn/Download/index.aspx?lang=cn 下载合适驱动.run文件,放到~或其他目录下

卸载原有驱动(可能由于2080Ti没有默认驱动,我执行后并没有卸载掉什么包)

sudo apt-get purge nvidia*
  • 1

禁用nouveau

sudo vim /etc/modprobe.d/blacklist-nouveau.conf
  • 1

内容写上

blacklist nouveau
options nouveau modeset=0
  • 1
  • 2

更新

sudo update-initramfs -u
  • 1

Ctrl + Alt + F4进入tty4控制台

结束X-window服务

sudo service lightdm stop
  • 1

安装驱动

cd ~
sudo sh NVIDIA*
  • 1
  • 2

这里开始会有个警告不用管他,安装完后会提示是否更新X-windows配置要选yes

重启X-window

sudo service lightdm start
  • 1

如果没有图像,按 Ctrl + Alt + F7 返回图形界面

检查能否读取到显卡信息

nvidia-smi
  • 1

如果安装不成功需要卸载重来,或重启后偶尔出现找不到显卡,运行 nvidia-smi 提示 NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver. 的情况下(数月后更新了显卡驱动解决),需要重装驱动

sudo sh NVIDIA* --uninstall
  • 1

如果装完驱动后,登录系统反复闪退回系统登录界面,则需要卸载重装驱动,在安装驱动时添加--no‐opengl‐files参数

sudo sh NVIDIA* --no‐opengl‐files
  • 1

安装Docker

参考

和官网教程一致,主要是改为了国内源改善安装速度

通过https,允许apt使用repository安装软件包

sudo apt-get install -y \
       apt-transport-https \
       ca-certificates \
       curl \
       software-properties-common 
  • 1
  • 2
  • 3
  • 4
  • 5

添加Docker官方GPG key

curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add -
  • 1

验证key的指纹

sudo apt-key fingerprint 0EBFCD88
  • 1

添加稳定版repository

sudo add-apt-repository \
   "deb [arch=amd64] https://mirrors.aliyun.com/docker-ce/linux/ubuntu \
   $(lsb_release -cs) \
   stable"
  • 1
  • 2
  • 3
  • 4

更新apt包索引

sudo apt-get update
  • 1

安装最新版本的Docker CE

sudo apt-get install -y docker-ce
  • 1

验证Docker CE正确安装(可选,之后更换存储位置后建议将默认位置/var/lib/docker删除)

sudo docker run hello-world
  • 1

之后不要急着配置Docker,因为安装nvidia-docker会覆盖daemon.json。

安装nvidia-docker2

参考

添加repositories

curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | \
  sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/ubuntu16.04/amd64/nvidia-docker.list | \
  sudo tee /etc/apt/sources.list.d/nvidia-docker.list
sudo apt-get update
  • 1
  • 2
  • 3
  • 4
  • 5

安装nvidia-docker2并重新载入daemon.json

sudo apt-get install -y nvidia-docker2
  • 1

加入docker组

加入docker组,以允许非root用户免sudo执行docker命令

sudo gpasswd -a 用户名 docker
  • 1

如果不重启并重连ssh客户端的话,需要手动重启服务并刷新docker组成员

sudo service docker restart
newgrp - docker
  • 1
  • 2

Docker换源,换存储路径,限制容器日志大小

备份daemon.json

sudo cp /etc/docker/daemon.json /etc/docker/daemon.json.bak
  • 1

修改daemon.json

sudo vim /etc/docker/daemon.json
  • 1

安装完nvidia-docker后默认应该是这样的配置

{
    "runtimes": {
        "nvidia": {
            "path": "nvidia-container-runtime",
            "runtimeArgs": []
        }
    }
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

修改默认运行时为nvidia-docker,添加国内源,修改存储位置为/home/docker,限制日志大小后daemon.json为

{
    "default-runtime": "nvidia",
    "runtimes": {
        "nvidia": {
            "path": "nvidia-container-runtime",
            "runtimeArgs": []
        }
    },
    "registry-mirrors":[
        "https://kfwkfulq.mirror.aliyuncs.com",
        "https://2lqq34jg.mirror.aliyuncs.com",
        "https://pee6w651.mirror.aliyuncs.com",
        "https://registry.docker-cn.com",
        "http://hub-mirror.c.163.com"
    ],
    "data-root": "/home/docker",
    "log-opts": { "max-size": "50m", "max-file": "1"}
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

保存退出,并在/home下建立docker文件夹

cd /home
sudo mkdir docker
  • 1
  • 2

在重启前,建议一并更改下网络设置,否则使用bridge模式连接的Docker容器可能无法访问外网
禁用dnsmasq

sudo vim /etc/NetworkManager/NetworkManager.conf 
  • 1

加#号注释掉dns=dnsmasq
如果不重启电脑的话需要重启服务以完成更改,不过还是连着Docker一并重启电脑吧

sudo restart network-manager
sudo restart docker
  • 1
  • 2

重启后使用docker info查看是否修改成功

...
Docker Root Dir: /home/docker
...
Registry Mirrors:
 https://kfwkfulq.mirror.aliyuncs.com/
 https://2lqq34jg.mirror.aliyuncs.com/
 https://pee6w651.mirror.aliyuncs.com/
 https://registry.docker-cn.com/
 http://hub-mirror.c.163.com/
 ...
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

可以删除之前的docker存储目录了。

安装Shipyard中文版

官网脚本链接已失效,下载github缓存的脚本文件

wget https://raw.githubusercontent.com/shipyard/shipyard-project.com/master/site/themes/shipyard/static/deploy
  • 1

修改脚本

vim deploy
  • 1

将deploy脚本中IMAGE=${IMAGE:-shipyard/shipyard:latest}修改为IMAGE=${IMAGE:-dockerclub/shipyard:latest}即可切换为Docker Hub中的中文版镜像源
修改SHIPYARD_PORT=${PORT:-7777}中的端口号可以自定义Shipyard的Web访问端口
修改完成后保存执行

sudo bash deploy
  • 1

有选择的话默认即可
安装完成后等待docker容器启动完毕即可通过localhost:port访问到Web控制台,默认用户名admin,密码shipyard

创建容器

由于运行容器需要nvidia-docker run而不是docker run才能正确初始化使用GPU的容器,接下来还是采用命令行执行。当容器使用nvidia-docker run正确启动后,就可再使用Docker或Shipyard进行管理了。
daemon.json 中修改了 default-runtime 后,运行容器可以直接使用Shipyard或者Docker进行初始化run了。但是注意经测试用于控制GPU可见性的NV_GPU环境变量依然需要使用命令行nvidia-docker run才能正确设置给容器,如果使用docker指令,则应该使用docker run-e NVIDIA_VISIBLE_DEVICES=1来控制GPU的可见性。

接下来是手动创建Docker模板容器的过程,为了简化过程笔者已经将容器打包上传Dockerhub,不想自己动手创建容器的读者的可以直接跳转文末下载笔者制作好的镜像【附:实验室使用的最新版镜像】

下载有CUDA和CUDNN环境的镜像

docker pull nvidia/cuda:10.1-cudnn7-runtime-ubuntu16.04
  • 1

这里如果直接pull nvidia/cuda的话拉取的是latest版本的镜像,系统为ubuntu18.04,因此我们手动指定版本为CUDA:10.1,CUDNN:7,Ubuntu:16.04的镜像。更多版本的镜像可以通过 https://hub.docker.com/r/nvidia/cuda/tags 查看。下面是以Ubuntu16.04为实例进行配置。

创建容器

nvidia-docker run -dit -p2345:22 --name=cuda1 -h=LAB_VM nvidia/cuda:10.1-cudnn7-runtime-ubuntu16.04
  • 1
参数含义
-dit容器保持后台运行
-p2345:22容器22端口映射到宿主机2345端口
–net=host使用主机模式,区别于默认的–net=bridge通过网桥连接宿主机网络,host模式直接使用宿主机网络空间,此模式下无法使用-p参数映射端口
–name=cuda1命名容器
-h=LAB_VM命名机器
–privileged以特权模式启动,容器内能访问操作宿主机设备,如mininet等需要控制网卡等类似的应用需要
–restart=alwaysdocker启动后(如宿主机断电重启)自动启动容器
-v /home/docker-common-dir:/home/common-dir将宿主机/home/docker-common-dir映射到容器/home/common-dir,一般用于共享目录

进入容器

docker exec -it cuda1 /bin/bash
  • 1

查看GPU是否能正常访问

nvidia-smi
  • 1

配置容器环境

注:这里使用的主要是交互式教程,可以参考结尾给出的Dockerfile使用非交互式指令配置容器

容器内的Ubuntu是一个非常精简的系统,缺乏包括ping vi等一系列常用指令,需要按照以下方式配置

更新apt源

apt-get update
  • 1

如果一直卡在connect这里进行不下去,说明容器内无法连接外网,此时需要配置

退出容器命令行

exit
  • 1

设置Linux内核允许IP转发

sudo sysctl net.ipv4.conf.all.forwarding=1
  • 1

将iptables FORWARD 的值更从DROP更改为ACCEPT:

sudo iptables -P FORWARD ACCEPT
  • 1

资料显示这里的两个配置不会持久化,每次重启都需要重新配置,需要将它们添加到start-up script,但是笔者实测不需要重新配置

之后重新进入容器控制台执行apt-get update,应该可以执行成功了,如果有卡在一半的地方是在更新NVIDIA的源,需要检查网络环境是否能够连通NVIDIA的网站

安装vim

apt-get install vim
  • 1

更换apt源

cp /etc/apt/sources.list /etc/apt/sources.list.bak
rm /etc/apt/sources.list
vim /etc/apt/sources.list
  • 1
  • 2
  • 3

粘贴入16.04的清华源内容https://mirrors.tuna.tsinghua.edu.cn/help/ubuntu/
这里如果意外设置成18.04的源不会马上报错,但是接下来会出现各种问题,一定要看好

更新apt源

apt-get update
  • 1

安装ssh

apt-get install openssh-server
  • 1

允许root远程连接

vim /etc/ssh/sshd_config
  • 1

PermitRootLogin prohibit-password
修改为PermitRootLogin yes

为root设置密码

passwd root
  • 1

如果是宿主机Ubuntu16.04,安装ssh服务应该会自行启动并且已经加入自启项,但是在容器内安装则不会自动启动,而且一般设置自启项的方法对Docker容器不起作用 ,需要按照如下方法设置启动脚本

启动ssh服务(此时可以通过ssh://root:密码@宿主机IP -p2345连接容器了)

service ssh start
  • 1

创建启动脚本

cd /home
vim startup.sh
  • 1
  • 2

输入启动脚本内容

#!/bin/bash
service ssh start
/bin/bash
  • 1
  • 2
  • 3

/bin/bash的作用是保持Docker容器的后台运行,使用-dit参数的时候会附加执行这个命令,但是当设置了启动脚本后就不会附加执行了,需要手动执行。

附加执行权限

chmod 777 shartup.sh
  • 1

这样基本的环境就配置好了,接下来还可以再安装些常用的库如ping等等,如果需要安装Anaconda的话会提示缺少一个库,通过apt-get install bzip2即可安装。还可以修改下ubuntu的ssh连接欢迎文字,下一步就开始打包了。

下面列举几个容器中缺少但常用的库

作用
vim强大的Linux文本编辑库
openssh-serverssh远程连接库
net-tools包含ifconfig,netstat等指令
iputils-ping包含ping指令
wget下载文件指令
curl网络请求指令
git版本控制
bzip2conda的依赖
iptables包过滤防火墙,可以控制转发策略
command-not-found在你输入一个未安装的指令时提示安装

解决中文乱码

docker容器内出现无法输入中文,查看中文字符出现乱码情况,解决方法:在启动脚本中加入更换编码指令

vim /etc/profile
  • 1

追加export LANG=C.UTF-8保存退出

打包为镜像

为了便于以后新建虚拟机,将容器作为镜像打包

nvidia-docker commit -m "一些说明" -a "作者" cuda1 cuda-base:1.0
  • 1

其中cuda1为容器的名字,cuda-base:1.0为镜像的名字和tag。

使用Dockerfile构建镜像

上述方法如果出现了误操作则需要重新构建,为此我将相关指令编写为Dockerfile

FROM nvidia/cuda:10.1-cudnn7-runtime-ubuntu16.04
MAINTAINER author<author@xxx.com>
RUN echo "export LANG=C.UTF-8" >>/etc/profile \
&& cp /etc/apt/sources.list /etc/apt/sources.list.bak \
&& echo "deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial main restricted universe multiverse\n\
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial-updates main restricted universe multiverse\n\
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial-backports main restricted universe multiverse\n\
deb https://mirrors.tuna.tsinghua.edu.cn/ubuntu/ xenial-security main restricted universe multiverse" >/etc/apt/sources.list \
&& apt-get update \
&& apt-get install vim openssh-server iputils-ping wget curl -y \
&& sed -i 's/PermitRootLogin prohibit-password/PermitRootLogin yes/g' /etc/ssh/sshd_config \
&& echo "root:rootpassword" | chpasswd \
&& echo "#!/bin/bash\n\
service ssh start\n\
/bin/bash" >/home/startup.sh \
&& chmod 777 /home/startup.sh \
&& echo "\
printf '\\\n'\n\
printf '\\\033[0;34m'\n\
printf ' 欢迎使用GPU服务器\\\n'\n\
printf '\\\033[0m'\n\
printf '\\\n'\n\
" >>/etc/update-motd.d/10-help-text

ENTRYPOINT /home/startup.sh
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

镜像打包指令,注意要在有 Dockerfile 文件的目录下执行

nvidia-docker image build -t cuda-base:1.0 .
  • 1

新建容器

新建公共目录

cd /home
sudo mkdir docker-common-dir
  • 1
  • 2

新建两个容器

NV_GPU=0 nvidia-docker run -dit --restart=always -v /home/docker-common-dir:/home/common-dir -p6001:22 --name=vm1 -h=LAB_VM cuda-base:1.0 /home/startup.sh
NV_GPU=1 nvidia-docker run -dit --restart=always -v /home/docker-common-dir:/home/common-dir -p6002:22 --name=vm2 -h=LAB_VM cuda-base:1.0 /home/startup.sh
  • 1
  • 2

其中NV_GPU环境变量是为了控制容器可访问的GPU,如果不加这个参数则容器可以访问全部的GPU。--restart=always是为了设置容器随Docker自动启动。将宿主机的/home/docker-common-dir映射到了容器的/home/common-dir目录,便于和容器的文件传输,容器的文件存储以及容器之间的文件传输。最后跟的是启动脚本,如果不输入则每次容器启动都不会自动启动ssh服务。

如果一切正常的话,现在已经可以通过ssh客户端连接两个容器了。

附:实验室使用的最新版镜像

此版本的镜像迎合实验室的需求,配置了Miniconda和一个py37的默认环境并换清华源。设置了ENTRYPOINT,创建容器时无需指定启动脚本。启动容器时可通过SSH_PORT控制容器的SSH端口(指容器内部端口,默认为22)。

Docker Hub主页:https://hub.docker.com/r/hangvane/cuda-conda-desktop
Github主页:https://github.com/hangvane/cuda-conda-desktop

拉取镜像:

docker pull hangvane/cuda-conda-desktop:ubuntu16.04
  • 1

创建容器:

NV_GPU=0 nvidia-docker run -dit -p6009:22 --name=vm -h=LAB_VM -e SSH_PORT=22 hangvane/cuda-conda-desktop:ubuntu16.04
  • 1

尾言

容器启动完成后,就可以使用Shipyard进行容器和镜像的可视化管理了,和不使用nvidia-docker一样。也可以给老师和同学们分配Shipyard的账户让他们自行管理,再次注意如果使用Shipyard Web端建立容器相当于在宿主机执行docker run命令,注意前述的NV_GPU环境变量的配置问题。
建议不要删除模板容器cuda1,以后更新cuda-base镜像还需要这个容器,如果再通过cuda-base镜像创建容器更新的话就会有一连串镜像依赖。

存在的问题

目前每次系统重启后,无法找到显卡,表现为nvidia-smi命令报错,之前使用nvidia-docker命令启动的容器无法启动。暂时的解决方法是卸载重装驱动。(数月后更新了显卡驱动解决)

参考

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/707905
推荐阅读
相关标签
  

闽ICP备14008679号