问题描述:
当我们用tf.Session() 如:tf.manage.session() 或者 tf.Superiver () , 来配置分布式机器的tensorflow代码 的ConfigProto的 init_op 和 intra_op 的时候,发现不起作用。 即我们的各个worker依旧会使用最大的线程数来process。
eg-ConfigProto:
config = tf.ConfigProto ( inter_op_parallelism_threads=1, intra_op_parallelism_threads=1 )
with tf.Session(config = config)
sv.managed_session (config = config)
prepare_or_wait_for_session(master='',
config=None,
wait_for_checkpoint=False,
max_wait_secs=7200,
start_standard_services=True
)
------------------it doesn't work.-------------------------------------
这时候,你可以在你建立Server来配置:
tf.train.Server(config = config )
这时候就可以正常工作。