版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
之前训练的模型没有收敛就结束了,再次训练,增加训练次数是不是就会收敛了?
有时,网上的参考答案并不能解决问题,因为每个人的细节不同,总有些关键细节问题决定成败。我的模型训练时的步骤有global_step,这个玩意是记录/标记ckpt的,表示哪一步产生的模型,我估计这个参数在模型中也保存了,因为我定义的是
global_step = tf.Variable(0, dtype=tf.int32, trainable=False, name='global_step')#从0开始
并且在optimizer的定义中也用到了这个玩意,所以restore恢复模型时估计将这个也恢复了,所以
for step in range(global_step.eval(), FINAL_STEP):
直接就结束了,因为这两个数字是一样的:
>>> for i in range(100,100):
print(i)
>>>
所以训练步骤没有执行,因此只要将第一个数自己改成0即可训练。
至于这个global_step,其实也是参看网上的模型直接搬过来的,谁知道他这个玩意有个坑啊??!!
另外有相关问题可以加入QQ群讨论,不设微信群
QQ群:868373192
语音深度学习及信号处理群