1.首先去官网下载cuda9.0版本 然后安装,配置环境变量。

CUDA_PATH是C:Program FilesNVIDIA GPU Computing ToolkitCUDA9.0但是仅仅如此,是不够的,还需要在环境变量里的path全局变量里加入,这个下面的bin和libx64目录的路径。
安装过程就是一路默认下一步就好了。

2.下载cudnn
cuDNN的全称为NVIDIA CUDA® Deep Neural Network library,是NVIDIA专门针对深度神经网络(Deep Neural Networks)中的基础操作而设计基于GPU的加速库。cuDNN为深度神经网络中的标准流程提供了高度优化的实现方式,例如convolution、pooling、normalization以及activation layers的前向以及后向过程。

cuDNN只是NVIDIA深度神经网络软件开发包中的其中一种加速库。想了解NVIDIA深度神经网络加速库中的其他包请戳链接https://developer.nvidia.com/...

下面我们说一下正确的安装cuDNN方式,其实跟着官方安装说明进行安装就可以了。

https://developer.nvidia.com/...(可能需要注册或登录)。

如果这个压缩包不是.tgz格式的,把这个压缩包重命名为.tgz格式。解压当前的.tgz格式的软件包到系统中的任意路径,解压后的文件夹名为cuda,文件夹中包含三个文件夹:一个为include,另一个为lib64,还有一个是bin,然后复制到CUDA_PATH下面。

将解压后的文件中的lib/x64文件夹关联到环境变量中。这一步很重要。

clipboard.png
运行tensorflow检验

#coding=utf-8

import tensorflow as tf

import numpy as np

hello=tf.constant('hhh')

sess=tf.Session()

print (sess.run(hello))

3.安装tensorflow
按照官网教程安装,然后用按照anaconda启动tensorflow,
python
import tensorflow as tf
如果不报错就成功了。
查看tensorflow版本
clipboard.png

4.如何查看自己用的是cpu还是gpu?
在Python环境中输入:
在Python环境中输入:

import numpy
import tensorflow as tf
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
print(sess.run(c))

之后就会出现详细的信息:

Device mapping:
/job:localhost/replica:0/task:0/device:GPU:0 -> device: 0, name: Tesla K40c, pci bus
id: 0000:05:00.0
b: /job:localhost/replica:0/task:0/device:GPU:0
a: /job:localhost/replica:0/task:0/device:GPU:0
MatMul: /job:localhost/replica:0/task:0/device:GPU:0
[[ 22.  28.]
 [ 49.  64.]]

就能看到是GPU在工作还是CPU再工作了。


眼泪成诗hocc
91 声望13 粉丝

forget-me-not.