batchsize和模型精度的影响

理论上说batch_size=1是最好的,不过实际上调的时候,会出现batch_size太小导致网络收敛不稳定,最后结果比较差。而batch_size太大会影响随机性的引入。

对于精细的分类,可以将batch调小,这样可以提高精度

猜你喜欢

转载自blog.csdn.net/qq_16792139/article/details/114372983