Keras使用GPU资源耗尽如何解决
这篇文章将为大家详细讲解有关Keras使用GPU资源耗尽如何解决,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
我们在使用GPU资源进行训练的时候,可能会发生资源耗尽的情况,那么在在这种情况,我们需要对GPU的资源进行合理的安排,具体使用办法如下:
框架:Tensorflow和Keras
方法
import tensorflow as tfimport keras.backend.tensorflow_backend as KTFconfig = tf.ConfigProto()config.gpu_options.allow_growth=True #不全部占满显存, 按需分配sess = tf.Session(config=config)KTF.set_session(sess) # 设置session
通过这种方法,就能合理的使用GPU资源了。
至少到目前位置,我自己从程序没出现资源耗尽的情况,当然,对于batchsize的设置,一定要设置在合理的范围,所谓合理,大家自己体会。
补充知识:keras使用GPU的一些坑
keras安装
conda install tensorflow-gpu
pip install keras
注意:不要使用conda安装keras,会检测依赖,默认安装上tensorflow的CPU版本。
keras运行报错,tensorflow/stream_executor/cuda/cuda_dnn.cc:329 Could not create cudnn handle: CUDNN_STATUS_INTERNAL_ERROR
解决方法:
增加如下代码:
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.5)config = tf.ConfigProto(gpu_options=gpu_options)config.gpu_options.allow_growth = Truesession = tf.Session(config=config)
关于Keras使用GPU资源耗尽如何解决就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。