Tensorflow: setting of inter_op_parallelism_threads and intra_op_parallelism_threads don't effect

问题描述:

当我们用tf.Session() 如:tf.manage.session()   或者 tf.Superiver ()   , 来配置分布式机器的tensorflow代码 的ConfigProto的 init_op 和 intra_op 的时候,发现不起作用。 即我们的各个worker依旧会使用最大的线程数来process。

eg-ConfigProto:

config  = tf.ConfigProto ( inter_op_parallelism_threads=1,  intra_op_parallelism_threads=1 )

with tf.Session(config = config)

sv.managed_session (config = config)

prepare_or_wait_for_session(
    master='',
    config=None,
    wait_for_checkpoint=False,
    max_wait_secs=7200,
    start_standard_services=True

)

------------------it doesn't   work.-------------------------------------

这时候,你可以在你建立Server来配置:

tf.train.Server(config = config )

这时候就可以正常工作。

猜你喜欢

转载自blog.csdn.net/u011926899/article/details/78145873
OP