tensorflow分布式训练之同步更新和异步更新

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/lyq_12/article/details/86573035

1、同步更新

在同步更新的时候, 每次梯度更新,要等所有分发出去的数据计算完成后,返回回来结果之后,把梯度累加算了均值之后,再更新参数。这样的好处是loss的下降比较稳定, 但是这个的坏处也很明显, 处理的速度取决于最慢的那个分片计算的时间。

2、异步更新

在异步更新的时候, 所有的计算节点,各自算自己的, 更新参数也是自己更新自己计算的结果, 这样的优点就是计算速度快,计算资源能得到充分利用,但是缺点是loss的下降不稳定,抖动大。

3、如何选择

在数据量小的情况下,各个节点的计算能力比较均衡的情况下,推荐使用同步模式。数据量很大,各个机器的计算性能掺差不齐的情况下,推荐使用异步的方式。

猜你喜欢

转载自blog.csdn.net/lyq_12/article/details/86573035