1.首先去官网下载cuda9.0版本 然后安装,配置环境变量。
CUDA_PATH是C:Program FilesNVIDIA GPU Computing ToolkitCUDA9.0但是仅仅如此,是不够的,还需要在环境变量里的path全局变量里加入,这个下面的bin和libx64目录的路径。
安装过程就是一路默认下一步就好了。
2.下载cudnn
cuDNN的全称为NVIDIA CUDA® Deep Neural Network library,是NVIDIA专门针对深度神经网络(Deep Neural Networks)中的基础操作而设计基于GPU的加速库。cuDNN为深度神经网络中的标准流程提供了高度优化的实现方式,例如convolution、pooling、normalization以及activation layers的前向以及后向过程。
cuDNN只是NVIDIA深度神经网络软件开发包中的其中一种加速库。想了解NVIDIA深度神经网络加速库中的其他包请戳链接https://developer.nvidia.com/...。
下面我们说一下正确的安装cuDNN方式,其实跟着官方安装说明进行安装就可以了。
从https://developer.nvidia.com/...(可能需要注册或登录)。
如果这个压缩包不是.tgz格式的,把这个压缩包重命名为.tgz格式。解压当前的.tgz格式的软件包到系统中的任意路径,解压后的文件夹名为cuda,文件夹中包含三个文件夹:一个为include,另一个为lib64,还有一个是bin,然后复制到CUDA_PATH下面。
将解压后的文件中的lib/x64文件夹关联到环境变量中。这一步很重要。
运行tensorflow检验
#coding=utf-8
import tensorflow as tf
import numpy as np
hello=tf.constant('hhh')
sess=tf.Session()
print (sess.run(hello))
3.安装tensorflow
按照官网教程安装,然后用按照anaconda启动tensorflow,
python
import tensorflow as tf
如果不报错就成功了。
查看tensorflow版本
4.如何查看自己用的是cpu还是gpu?
在Python环境中输入:
在Python环境中输入:
import numpy
import tensorflow as tf
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
print(sess.run(c))
之后就会出现详细的信息:
Device mapping:
/job:localhost/replica:0/task:0/device:GPU:0 -> device: 0, name: Tesla K40c, pci bus
id: 0000:05:00.0
b: /job:localhost/replica:0/task:0/device:GPU:0
a: /job:localhost/replica:0/task:0/device:GPU:0
MatMul: /job:localhost/replica:0/task:0/device:GPU:0
[[ 22. 28.]
[ 49. 64.]]
就能看到是GPU在工作还是CPU再工作了。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。