tensorflow指定GPU与动态分配GPU memory设置

发布时间:2020-10-03 08:35:07 作者:sherry颖
来源:脚本之家 阅读:277

在tensorflow中,默认指定占用所有的GPU,如需指定占用的GPU,可以在命令行中:

export CUDA_VISIBLE_DEVICES=1

这样便是只占用1号GPU,通过命令

nvidia-smi

可以查看各个GPU的使用情况。

另外,也可以在python程序中指定GPU,并且动态分配memory,代码如下

import os
import sys
os.environ['CUDA_VISIBLE_DEVICES'] = sys.argv[1]
import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
set_session(tf.Session(config=config))

这样,占用的GPU就是sys.argv[1]了,并且会按需分配memory。

以上这篇tensorflow指定GPU与动态分配GPU memory设置就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持亿速云。

推荐阅读:
  1. pytorch中gpu与gpu、gpu与cpu在load时是怎么相互转化的
  2. 如何实现tensorflow指定CPU与GPU运算

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

tensorflow gpu 分配

上一篇:关于vue.extend和vue.component的区别浅析

下一篇:易语言制作简单的MP3播放器

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》