赞
踩
建议使用不少于 16 GB 内存。在一些情况下,可能需要调高虚拟内存,以容纳模型文件。
建议准备 40 GB 以上的可用硬盘空间。
WARNING
注意显卡温度,有报道称显卡太热炸了。
首先,很不幸地,因为需要用到 CUDA 加速,所以只有 英伟达显卡 支持良好。(AMD 可以用但速度明显慢于英伟达显卡,当然没显卡也可以用 CPU 花几百倍时间生成)
对于 Linux 系统 + AMD 显卡 请读 AMD 安装指南 和 AMD 安装 WebUI 指北
显卡保修
显卡厂家对于深度学习卡的保修政策等同于矿卡
过度玩耍(比如连续 3 天出图),显卡会有坏掉的风险
检查显卡驱动#
通过
bash
nvidia-smi
判断 CUDA 是否可用。
检查 PyTorch 是否成功载入 CUDA#
打开命令窗,输入 python
进入,分行输入
python
- import torch
- print(torch.__version__)
- print(torch.cuda.is_available())
如果出现 True
字样则正常。
查看 torch 对应的 CUDA 版本#
python
- import torch
- torch.version.cuda
输入 Ctrl + Z 退出
如果出现了任何错误,请询问他人或使用搜索引擎解决。
最简单的模式就是实现一个多数据并行处理的方法,通过 --device-id
参数启动多个实例。每个 GPU 加载一个模型,然后给它们分配工作。
考虑到这个项目所提供的功能众多,我(作者)认为可能需要一段时间才能在并行的情况下使用所有的功能。
Using memory from between two GPUs is not simple. I only have one so I can't research/develop this.
方案来自 这个讨论
bash
pip uninstall torch torchvision
CUDA 11.6
编译的 torch
和 torchvision
。bash
pip install torch torchvision --extra-index-url https://download.pytorch.org/whl/cu116
CUDNN_8.5
备用。使用下载工具下载,直接下载会跳转到 NVIDIA 的开发者注册界面
Windows:
其他版本:
cuDNN Archive | NVIDIA Developer
venv\Lib\site-packages\torch\lib
里,覆盖所有文件。但是,依然不能使用 DDIM Sampling
,但可以使用 Euler a
安装时涉及到的大部分内容在国内的可访问性均不佳,建议自备加速手段。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。