当前位置:   article > 正文

英特尔生态的深度学习科研环境配置-A770为例_深度学习a770

深度学习a770

之前发过在Intel A770 GPU安装oneAPI的教程,但那个方法是用于WSL上。总所周知,在WSL使用显卡会有性能损失的。而当初买这台机器的时候我不在场,所以我这几天刚好有空把机器给重装成Ubuntu了。本篇不限于安装oneAPI,因为在英特尔的生态之下,oneAPI只是一个基座。

本篇集大成者,为使用英特尔生态的人提供便利。

U盘重装Ubuntu

如果大家也是重装,请大家注意备份资源。

首先从官网或者国内镜像,例如清华源下载最新的LTS,然后准备一个16G左右的U盘,使用Rufus把ISO格式的系统镜像文件制作成可引导的 USB 启动安装盘,启动软件后插入U盘会自动检测,你只需要把引导类型选择为你的ISO镜像位置即可。

当制作完毕后,重启进入BIOS(不知道自己机器是什么的,建议F1-F12,甚至Delete, Insert都按按,开机后就要疯狂点,这一步我没想到是最麻烦的,我甚至百度查了很多快捷键进入都没有效果,直到我乱点上面的键之后才顺利进入BIOS,然后大家可以找找Boot选择或者首页,注意里面是可以鼠标和键盘移动的!!!,最后设置自己U盘为第一选择项,Save启动,记住要保存,不然像我这种乱点进入BIOS的,又要一次乱点了。)

关于Ubuntu的安装过程就略了…不是本篇的重点。

硬盘管理

安装之后的Ubuntu只有系统盘被格式化了,而其他盘却还是之前的windows盘,你需要重新挂载和格式化文件系统。

首先使用df -h看看你有什么盘,例如/dev/sda1,然后使用sudo mkfs -t ext4 /dev/sda1进行格式化,如果你在windows进行分区过,那么你会看到/dev/sda1/dev/sda2之类的盘符,这时候你可以使用sudo fdisk /dev/sda进行分区的合并,记得分区要保留1个,别都删完了。
然后mkdir创建好挂载的目录,例如data0,最后使用mount /dev/sda1 /data0进行挂载。
为了防止重启失效,还需要进一步写入文件sudo vim /etc/fstab进行自动挂载:

/dev/sda1       /data0  ext4    defaults        0       0
/dev/sdb1       /data1  ext4    defaults        0       0
  • 1
  • 2

中间的空格,我建议直接按Tab键就行了。

驱动

有一篇简书文章介绍了如何安装锐炫独立显卡的驱动程序,但是很奇怪的是,这篇文章初次开机后打开设置的About界面中的Graphics是llvmpipe,可是我安装的Ubuntu 22.04.4 LTS之后,系统是可以正常显示出Intel A770 GPU的。

我当时也非常害怕,所以我还是按照文档重新安装了,如果有新安装的伙伴看到也是这样,不妨直接看下面的验证看看能不能输出,让我知道是不是现在系统自带驱动了,然后来文章底下和我说说吧。
如果你要进行安装,这里我建议不要参考我刚刚发的文章和官网,就看我这篇,因为看文档会有个内核版本问题,而我没有根据文档成功了
具体步骤如下:

加官方源

wget -qO - https://repositories.intel.com/gpu/intel-graphics.key | \
  sudo gpg --dearmor --output /usr/share/keyrings/intel-graphics.gpg
echo "deb [arch=amd64,i386 signed-by=/usr/share/keyrings/intel-graphics.gpg] https://repositories.intel.com/gpu/ubuntu jammy client" | \
  sudo tee /etc/apt/sources.list.d/intel-gpu-jammy.list
sudo apt update
  • 1
  • 2
  • 3
  • 4
  • 5

Compute, Media, and Display runtimes

sudo apt install -y \
  intel-opencl-icd intel-level-zero-gpu level-zero \
  intel-media-va-driver-non-free libmfx1 libmfxgen1 libvpl2 \
  libegl-mesa0 libegl1-mesa libegl1-mesa-dev libgbm1 libgl1-mesa-dev libgl1-mesa-dri \
  libglapi-mesa libgles2-mesa-dev libglx-mesa0 libigdgmm12 libxatracker2 mesa-va-drivers \
  mesa-vdpau-drivers mesa-vulkan-drivers va-driver-all vainfo hwinfo clinfo
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
sudo dpkg --add-architecture i386 
sudo apt update
sudo apt install  -y \
  udev mesa-va-drivers:i386 mesa-common-dev:i386 mesa-vulkan-drivers:i386 \
  libd3dadapter9-mesa-dev:i386 libegl1-mesa:i386 libegl1-mesa-dev:i386 \
  libgbm-dev:i386 libgl1-mesa-glx:i386 libgl1-mesa-dev:i386 \
  libgles2-mesa:i386 libgles2-mesa-dev:i386 libosmesa6:i386 \
  libosmesa6-dev:i386 libwayland-egl1-mesa:i386 libxatracker2:i386 \
  libxatracker-dev:i386 mesa-vdpau-drivers:i386 libva-x11-2:i386
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

i386 软件包不安装,别想在这里玩帕鲁了!

安装开发包

sudo apt install -y \
  libigc-dev intel-igc-cm libigdfcl-dev libigfxcmrt-dev level-zero-dev
  • 1
  • 2

安装dkms

这里官网文档以及上面的文章都要大家安装5.19 通用内核,实际上不用,我的内核是6.5.0-25-generic也能成功。所以直接执行安装dkms。

sudo apt update

sudo apt -y install \
    gawk \
    dkms \
    linux-headers-$(uname -r) \
    libc6-dev

sudo reboot
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

到这里,驱动都安装完了。

你可以使用下面步骤进行验证。

验证

hwinfo --display
  • 1

如果能和我下面的输出差不多,那么恭喜你安装成功了!
hwinfo.png

xpu-smi

英伟尔有nvidia-smi,AMD有rocm-smi,英特尔也有自己的xpu-smi。

sudo apt-get install xpu-smi
但xpu-smi使用起来挺复杂的,建议直接参考下面的使用文档。

oneAPI安装

接下来才是真的要开始配置环境了。。。。
注意必须要安装Intel® oneAPI Base Toolkit,可以选择性安装oneAPI HPC等套件。

  • 可以直接使用APT包进行安装:

    • wget -O- https://apt.repos.intel.com/intel-gpg-keys/GPG-PUB-KEY-INTEL-SW-PRODUCTS.PUB \ | gpg --dearmor | sudo tee /usr/share/keyrings/oneapi-archive-keyring.gpg > /dev/null
      
      • 1
    • echo "deb [signed-by=/usr/share/keyrings/oneapi-archive-keyring.gpg] https://apt.repos.intel.com/oneapi all main" | sudo tee /etc/apt/sources.list.d/oneAPI.list
      
      • 1
    • sudo apt update

    • sudo apt install intel-basekit

  • 也可以直接下载安装包,例如:

wget https://registrationcenter-download.intel.com/akdlm/IRC_NAS/163da6e4-56eb-4948-aba3-debcec61c064/l_BaseKit_p_2024.0.1.46_offline.sh

sudo sh ./l_BaseKit_p_2024.0.1.46_offline.sh
  • 1
  • 2
  • 3

安装步骤可以看我以前的文章,但在我安装的时候,遇到了一些BUG,那就是在安装时候会检测Ubuntu缺少了一些必要的包,可当我的确安装缺少的包,并且更新安装界面,但安装脚本没有检测到我已安装过,因此只要你真的安装了缺少的部分,直接点下一步即可。

Miniconda3

这里我就不多介绍了:https://docs.conda.io/en/latest/miniconda.html

记得配置好国内源。(再此提醒:Ubuntu、python、conda国内源都要配置好)

Intel版pytorch

Github地址:https://github.com/intel/intel-extension-for-pytorch

当然也是有tensorflow的:https://github.com/intel/intel-extension-for-tensorflow

这里以Pytorch为例,要想在intel生态上使用AI,就要安装intel-extension-for-pytorch了,你可以认为这是官方pytorch的一个插件。
激活虚拟环境之后,直接:

  • python -m pip install torch==2.1.0a0 torchvision==0.16.0a0 torchaudio==2.1.0a0 intel-extension-for-pytorch==2.1.10+xpu --extra-index-url https://pytorch-extension.intel.com/release-whl/stable/xpu/cn/
  • 激活oneAPI环境:source /opt/intel/oneapi/setvars.sh,注意我的安装的是全套,还有位置如果你和我不同记得修改!使用pytorch必须安装dpcpp和oneMKL
  • 最后进行测试:python -c "import torch; import intel_extension_for_pytorch as ipex; print(torch.__version__); print(ipex.__version__); [print(f'[{i}]: {torch.xpu.get_device_properties(i)}') for i in range(torch.xpu.device_count())];"只要输出不报错即可。

BigDL-LLM安装

现在是大模型的时代,如果要使用intel生态跑大模型,那么必须安装BigDL-LLM:pip install --pre --upgrade bigdl-llm[xpu]
使用BigDL-LLM,同样之前需要激活环境:

source /opt/intel/oneapi/setvars.sh
export USE_XETLA=OFF
export SYCL_PI_LEVEL_ZERO_USE_IMMEDIATE_COMMANDLISTS=1

  • 1
  • 2
  • 3
  • 4

注意:BigDL-LLM+Pytorch 2.1对应oneAPI Base Toolkit2024.0;BigDL-LLM+Pytorch 2.0对应oneAPI Base Toolkit2023.2.

使用BigDL-LLM很简单,换API大法:
对于像原本的from transformers import AutoModel,你可以直接替换成from bigdl.llm.transformers import AutoModel即可。增加参数:optimize_model=True

目前支持替换的API有:AutoModelForCausalLM、AutoModel、AutoModelForSpeechSeq2Seq、AutoModelForSeq2SeqLM
推荐开启int4优化,增加参数load_in_4bit=True

如果你想在XPU(即Intel GPU)上部署,那和英伟达使用方法一样,把模型to(‘xpu’)

题外话:你可以认为BigDL-LLM是intel的transformers库,进一步帮你封装了这些函数,释放了英特尔生态的硬件算力。对于之前的模型,实际上BigDL-LLM也是支持原来的小模型优化的,例如resnet,你可以直接把它用bigdl.llm.optimize_model进行包裹,具体可以查看文档

frp内网穿透

为什么要内网穿透呢?因为又有笔记本又有台式,桌子没有这么多显示屏可以放,不如把Linux穿透一下,直接在笔记本SSH连接,做到雨露均沾。
如何做呢?我之前写过了~可以参考下面:

  • https://blog.csdn.net/qq_28356373/article/details/127941404

转载于染念的博客

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/314310
推荐阅读
相关标签
  

闽ICP备14008679号