赞
踩
Pycharm的下载安装。我简略的说明一下,这是用跑Python的代码的前提,简单来说就是,首先下载python3.5 (我使用的是3.5),然后下载Pycharm最新版的即可。记住千万不要随意的设置环境变量。然后再pycharm中将python的地址设置进去即可
关于CUDA版本的下载,现在已经更新到10.1多的版本,这里有一个图对应去查找,我的2080ti驱动版本432,由于我看到网上说10.1会安装出问题,所以我选择了10.0的版本,下载链接https://developer.nvidia.com/cuda-toolkit,CUDA的安装一直往下进行即可!不用考虑太多
关于cuDNN的下载,连接如下https://developer.nvidia.com/rdp/cudnn-download,主要是下载完之后。
步骤一:需要将cuDNN解压到的所有文件复制到CUDA的安装路径下,比如我的路径就是安装路径是 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0 下面即可。
步骤二:(这个步骤不确定需不需要)C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0 \extras\CUPTI\libx64中的cupti64_100.dll复制到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0 \bin 文件夹下面。
使用pycharm的目的就是方便易实现,直接使用pip install tensorflow-gpu == 1.14 下载即可使用。另外我还跑了几个测试代码
// An highlighted block
#!/usr/bin/env python
# -*- coding:utf-8 -*-
import sys
import tensorflow as tf
from datetime import datetime
device_name = sys.argv[1] # Choose device from cmd line. Options: gpu or cpu
shape = (int(sys.argv[2]), int(sys.argv[2]))
if device_name == "gpu":
device_name = "/gpu:0"
else:
device_name = "/cpu:0"
with tf.device(device_name):
random_matrix = tf.random_uniform(shape=shape, minval=0, maxval=1)
dot_operation = tf.matmul(random_matrix, tf.transpose(random_matrix))
sum_operation = tf.reduce_sum(dot_operation)
startTime = datetime.now()
with tf.Session(config=tf.ConfigProto(log_device_placement=True)) as session:
result = session.run(sum_operation)
print(result)
print("\n" * 5)
print("Shape:", shape, "Device:", device_name)
print("Time taken:", datetime.now() - startTime)
print("\n" * 5)
在运行的时候直接pycharm中运行会出错,只有使用terminal中 如 python test1.py 1500,当然设置为1500会太小突出不了GPU优势,一般使用10000以上,会看的比较明显。参考连接 https://blog.csdn.net/beyond9305/article/details/90450246,另外我后面把下载的也上传上来 大家会方便一点。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。