赞
踩
在此之前,写了一篇基于GTX1660显卡的CUDA 11.2的环境搭建,参考链接: 基于tensorflow-gpu-2.6.0 + Intel CPU + GTX1660 SUPER 使用CUDA计算
本文为基于NVIDIA GPU 双显卡(GTX1660 + TESLA P40) 进行 tensorflow(CUDA) 计算的环境配置说明,如果电脑中安装有cuDNN 且Tensorflow支持的话,会默认优先使用GPU进行计算,如果有多块GPU ,需要代码指定使用哪一块显卡进行计算,如果配置CUDA失败,会使用CPU计算
关于计算能力,测试了20万张级别的【图片的对象识别】, TESLA P40 GPU(24GB) 的 没Epoch计算时间大概会比GTX 1660 SUPER(6GB) 缩短3-4倍。
# | 硬件 | 模型计算完成时间 |
---|---|---|
1 | GTX 1660 SUPER | ≈ 12 分钟/16 Batch Size/1 epoch |
2 | TESLA P40 | ≈ 4 分钟/ 64 Batch Size/1 epoch |
# | 软件 | 说明 | 查询地址 |
---|---|---|---|
1 | cuda显卡 | 在cuda-gpus列表查询当前显卡是否支持cuda功能及Compute Capability版本 | cuda-gpus |
2 | CUDA 版本 | 通过查询Tensorflow-GPU版本列表,当前文档中最高支持CUDA 11.2, 但是实际上使用CUDA(11.8.0)版本配合对应版本cuDNN依然可以使用低版本的Tensorflow-GPU | Tensorflow-GPU |
3 | 显卡驱动 | 找到与CUDA 版本对应的CUDA开发工具的-显卡驱动即可 | cuda-toolkit-release |
4 | Python | 在tensorflow-gpu版本列表中显示 python 3.6-3.9版本皆可 | Tensorflow-GPU |
5 | cuDNN | 在cudnn-archive版本列表中显示 for CUDA 11.x 或者指定版本即可 | cudnn |
注:
1. Compute Capability版本对应的支持功能,可以查询cuda-function进行查询
2. 本文中 未使用anaconda 软件安装python,发现使用anaconda 在进行安装tensorflow-gpu 会报出 各种意料外的异常,所以使用实体系统安装python的方式进行安装测试
3. cudnn下载需要注册NVIDIA的开发者账号
4. 先用亮机卡(GTX1660super 单卡安装,待所有安装配置都完成后,再插入P40显卡)
5. Bios中要开启 Above 4G Decoding 才能支持大容量显存的双显卡
# | 设备 | 产品 |
---|---|---|
1 | CPU | E5-2686V4 * 1 |
2 | 内存 | 32 GB DDR4 ECC(三星) * 2 |
3 | 主板 | 华南X99 (有能力的最好使用DELL服务器, 华南主板安装Windows Server系统需要重新安装华南官方的网卡驱动,如果使用多显卡需要修改BIOS【咨询商家即可】) |
4 | 硬盘 | 西数(WD) SN770 NVMe SSD 1TB |
5 | 显卡 | 技嘉NVIDIA GeForce GTX 1660 SUPER |
6 | 显卡2 | TESLA P40 |
7 | 电源 | 长城巨龙 1000W |
8 | CPU风扇 | TR-TA120EX |
# | 软件 | 版本 |
---|---|---|
1 | 操作系统 | Windows server2019 数据中心版 版本 17763 |
2 | anaconda | N/A |
3 | Python | 3.9.13 |
4 | 显卡驱动 | CUDA Toolkit 11.8 |
5 |
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。