tf.Session:创建一个新的TensorFlow会话。
tf.Session(self, target='', graph=None, config=None)
如果在构造会话时未指定`graph`参数,则默认图将在会话中启动。 如果在同一过程中使用多个图(通过tf.Graph()创建),则每个图必须使用不同的会话,但是每个图可以在多个会话中使用。 在这种情况下,将要显式启动的图传递给会话构造函数通常更为清晰。
Args:
target:(可选)要连接的执行引擎。 默认为使用进程内引擎。
graph:(可选)要启动的“图”。
config :(可选)一个[ConfigProto`]协议缓冲区,带有会话的配置选项。
查看机器上GPU情况:
命令: nvidia-smi
功能:显示机器上gpu的情况
其中左上侧有0、1的编号,表示GPU的编号,在后面指定GPU时需要使用这个编号。
命令: nvidia-smi -l
功能:定时更新显示机器上gpu的情况
使用tf.ConfigProto()配置Session运行参数:
tf.ConfigProto()函数用在创建session的时候,用来对session进行参数配置:
config = tf.ConfigProto(allow_soft_placement=True, log_device_placement=True)
config.gpu_options.per_process_gpu_memory_fraction = 0.4 #占用40%GPU显存
sess = tf.Session(config=config)
记录设备指派情况 : tf.ConfigProto(log_device_placement=True)
设置tf.ConfigProto()中参数log_device_placement = True ,可以获取到 operations 和 Tensor 被指派到哪个设备(几号CPU或几号GPU)上运行,会在终端打印出各项操作是在哪个设备上运行的。
自动选择运行设备 : tf.ConfigProto(allow_soft_placement=True)
在tf中,通过命令 "with tf.device('/cpu:0'):",允许手动设置操作运行的设备。如果手动设置的设备不存在或者不可用,就会导致tf程序等待或异常,为了防止这种情况,可以设置tf.ConfigProto()中参数allow_soft_placement=True,允许tf自动选择一个存在并且可用的设备来运行操作。
限制GPU资源使用:
为了加快运行效率,TensorFlow在初始化时会尝试分配所有可用的GPU显存资源给自己,这在多人使用的服务器上工作就会导致GPU占用,别人无法使用GPU工作的情况。
tf提供了两种控制GPU资源使用的方法,一是让TensorFlow在运行过程中动态申请显存,需要多少就申请多少;第二种方式就是限制GPU的使用率。
1.动态申请显存:
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config)
2.限制GPU使用率:
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.4 #占用40%GPU显存
session = tf.Session(config=config)
或者:
gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.4)
config=tf.ConfigProto(gpu_options=gpu_options)
session = tf.Session(config=config)
指定GPU:
1.在python程序中设置:
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0' #使用 GPU 0
os.environ['CUDA_VISIBLE_DEVICES'] = '0,1' # 使用 GPU 0,1
2.在执行python程序时指定:
这样在跑你的网络之前,告诉程序只能看到0,1号GPU,其他的GPU它不可见
CUDA_VISIBLE_DEVICES=0,1 python python_filename.py